
Nas últimas semanas, redes sociais foram inundadas por avatares transformados em personagens de filmes do Studio Ghibli. A febre das “fotos em estilo Totoro” reacendeu uma polêmica que, até então, circulava de forma tímida fora dos círculos técnicos: a necessidade urgente de uma regulação para o uso da inteligência artificial (IA) no Brasil. O que começou como uma brincadeira estética viral acabou escancarando um problema mais profundo — o uso desenfreado de tecnologias que manipulam imagens, vozes, estilos e criações artísticas sem qualquer garantia de proteção a direitos autorais ou consentimento de quem as gerou.
Mas o problema não é só artístico. O buraco é mais embaixo.
A inteligência artificial já está influenciando decisões que vão de crédito bancário à contratação ou demissão de trabalhadores, passando por sistemas de reconhecimento facial, curadoria de conteúdo e até operações policiais. É nesse contexto que a Coalizão Direitos na Rede (CDR), grupo que reúne mais de 50 entidades acadêmicas e da sociedade civil, vem alertando parlamentares para a urgência de avançar com o Projeto de Lei 2.338/2023 na Câmara dos Deputados.
Aprovado no Senado no fim de 2023 após três anos de discussões, o PL é uma tentativa de criar um marco regulatório que coloque ordem no uso de IAs no país. A proposta adota uma abordagem de risco: quanto maior o potencial de dano de um sistema, mais rigorosas devem ser suas regras de funcionamento. Simples assim.
Mas, apesar dos avanços, o texto ainda precisa de ajustes. Em reuniões recentes com assessores parlamentares, a CDR destacou pontos críticos: o enfraquecimento da supervisão humana em decisões automatizadas, a exclusão de sistemas de recomendação de conteúdo e classificação de crédito da categoria de alto risco e a falta de garantias trabalhistas para evitar demissões em massa causadas por automações.
“Apenas princípios éticos não são mais suficientes para enfrentar os danos que a IA pode gerar”, resume a advogada Paula Guedes, da ONG Artigo 19. Ela lembra que o projeto traz uma inovação importante ao propor uma regulação assimétrica — ou seja, não trata todos os sistemas como iguais, mas conforme o impacto que podem gerar na vida das pessoas.
Entre os dispositivos elogiados pela Coalizão estão a proibição do uso de armas autônomas, a previsão de transparência, auditorias e fiscalização pública dos sistemas, e a proteção especial a grupos vulneráveis, como crianças, idosos e pessoas com deficiência.
Mas não é só no Brasil que a discussão avança. Nos Estados Unidos, o governo Biden chegou a editar uma ordem executiva para forçar órgãos federais a criarem parâmetros de uso responsável da IA. A União Europeia já tem uma legislação aprovada. E mesmo em fóruns internacionais como a ONU e o G20, há consenso sobre a necessidade de regras claras para impedir abusos.
“Não dá mais para aceitar o argumento de que ‘não é tecnicamente possível’ avaliar o impacto de determinado sistema. Se não dá para prever os danos, então essa tecnologia não deve ser implementada”, afirma Tarcízio Silva, consultor da Ação Educativa.
Os riscos vão muito além da estética. Como lembra Silva, durante anos buscadores entregavam resultados hipersexualizados para termos como “lésbica”. Foi a pressão de movimentos sociais que forçou plataformas a rever seus algoritmos. “Sem regulação, esses sistemas continuam reproduzindo estigmas e desigualdades.”
E a quem interessa manter tudo como está? Em geral, às grandes empresas de tecnologia, que preferem um ambiente de autorregulação frouxa. O problema é que, quando os danos aparecem — e eles aparecem —, é o cidadão comum quem paga a conta.
Enquanto isso, o tempo corre. Se a febre Ghibli serviu para levantar o debate, que seja também para pressionar os deputados a agir. Afinal, como alerta a CDR, “a regulação não é um freio à inovação. É a única forma de garantir que ela ocorra com responsabilidade, equidade e justiça.”
Ou o Brasil corre o risco de entrar no futuro de olhos vendados. E sem plano B.