‘Brigada’ de Moraes abre cruzada de amplitude inédita contra fake news
Órgão reunindo PGR, OAB e Ministério da Justiça foi desenhado para combater velhas e novas ameaças à democracia
Em agosto de 2022, em meio ao alto grau de polarização política do país, o ministro Alexandre de Moraes assumiu a presidência do TSE com um desafio nada pequeno: conter a propagação de ataques à democracia e fake news na internet, em especial sobre as urnas eletrônicas. “A intervenção da Justiça Eleitoral será mínima, porém será célere, firme e implacável”, disse na posse. A firmeza da autoridade eleitoral foi, de fato, um componente decisivo da eleição, da qual Moraes emergiu como uma espécie de “xerife” do Estado contra a ação política delituosa no mundo virtual. Agora, a poucos meses do término de seu mandato, em junho, ele lançou na terça, 12, um órgão de amplitude inédita, de caráter multi-institucional, com Executivo, Ministério Público e outros operadores do direito, na cruzada final de sua gestão contra um inimigo que ronda a democracia desde 2018.
Em linhas gerais, o novo órgão tem o objetivo de fazer valer as regras eleitorais mais duras estabelecidas pelo tribunal em fevereiro, que incluem maior responsabilização das companhias de tecnologia e punições mais rigorosas para os políticos. Batizada de Centro Integrado de Enfrentamento à Desinformação e Defesa da Democracia (Ciedde), a entidade terá representantes do Ministério da Justiça, da Anatel (Agência Nacional de Telecomunicações), da Procuradoria-Geral da República (PGR) e da Ordem dos Advogados do Brasil (OAB). A maior promessa é uniformizar os métodos da Justiça para lidar com a desinformação, servindo como guia para os magistrados da primeira instância, e promover um sistema rápido de troca de informações para viabilizar decisões em curto espaço de tempo. Também foram firmados acordos com as big techs — as principais estavam no evento — para diminuir o tempo de resposta no caso de identificação de material criminoso.
A espiral evolutiva das ameaças virtuais é notável: começou com a distribuição em massa de fake news pelo WhatsApp e Facebook em 2018, se ampliou com a proliferação de canais e perfis em ambientes pouco fiscalizados, como o Telegram, em 2022, e chegou ao vilão que mais inspira temor até agora: a inteligência artificial. O caso mais alarmante vem dos deepfakes, vídeos e imagens de pessoas reais digitalmente manipulados. Um caso emblemático ocorreu há poucos dias nos Estados Unidos, quando partidários de Donald Trump, em tentativa de atrair a simpatia do eleitorado afro-americano, inundaram as redes com fotos do republicano cercado por sorridentes eleitores negros — todas as imagens foram artificialmente geradas com o auxílio de robôs.
As resoluções aprovadas pelo TSE exigem que todo o conteúdo manipulado digitalmente seja identificado e vetam completamente o uso de deepfakes, mas a fiscalização terá uma série de obstáculos técnicos. Em geral, as ferramentas generativas mais acessíveis produzem resultados que podem até enganar o leigo, mas são facilmente desmascarados por observadores mais atentos. Os deepfakes mais sofisticados, por sua vez, são produzidos por profissionais com computadores mais potentes e conhecimento técnico considerável — a tecnologia para analisar e desmascarar essas falcatruas existe, mas demanda análise minuciosa. “É difícil gerar um deepfake que engane os peritos, mas o imenso volume de conteúdo que circula na web torna inviável automatizar esse processo de análise”, diz Carlos Irineu, pesquisador em inteligência artificial e colaborador do Instituto de Estudos Avançados da USP.
Desde que os conteúdos virtuais viraram arma da guerra política, a dança entre as big techs e o poder público é marcada pela tensão. Uma resistência à cooperação foi vista no início, o que levou até a enfrentamentos mais duros, como a retirada do Telegram do ar em 2022 por Moraes. Agora, as companhias dizem que vão cooperar. A postura incluiu um solene pacto global pela integridade das eleições firmado na Conferência de Munique, em fevereiro, por vinte das maiores empresas de tecnologia. Nos bastidores, porém, as big techs reclamam do rigor das exigências, da dificuldade para identificar conteúdos ilegais, da capacidade de cumprir as decisões judiciais em tempo tão rápido — na internet, minutos significam muita coisa — e da excessiva responsabilização imposta às empresas.
Ao redor do mundo, multiplicam-se os esforços governamentais para enquadrar legalmente gigantes como Google, Meta (controladora de Facebook, WhatsApp e Instagram), TikTok e X (antigo Twitter). Na quarta, 13, o Parlamento Europeu aprovou a Lei de Inteligência Artificial, com restrições a sistemas como o reconhecimento digital de emoções faciais no ambiente de trabalho. No mesmo dia, a Câmara dos EUA aprovou o banimento do TikTok sob alegações de espionagem pela chinesa ByteDance, dona do aplicativo. O Congresso americano já vinha fechando o cerco contra as plataformas desde janeiro, quando o fundador do Facebook, Mark Zuckerberg, foi intimado a depor sobre abuso infantil em suas redes.
Pelo lado do Legislativo brasileiro, tudo anda mais devagar. A principal aposta é o Marco Civil da Inteligência Artificial, projeto do presidente do Senado, Rodrigo Pacheco (PSD-MG). O senador Marcos Pontes (PL-SP), vice-presidente da Comissão para Inteligência Artificial do Senado, diz que a ideia é criar uma espécie de conselho composto por múltiplos órgãos de governo para segmentar as normas específicas sobre IA em cada setor e adaptá-las constantemente aos avanços tecnológicos. “A inteligência artificial é como a tecnologia nuclear. Tem inúmeros usos benéficos para a ciência e as indústrias, mas também pode ser usada para a criação de uma bomba atômica”, pontifica o astronauta. Outra iniciativa, o PL das Fake News (2630/20), não avançou nem apoiado pelo poderoso presidente da Câmara, Arthur Lira (PP-AL), e pelo governo Lula. Anunciado como prioridade para este ano, sua retomada sequer é discutida hoje.
A falta de um arcabouço legal consistente acaba deixando exposta a Justiça Eleitoral, várias vezes acusada de promover a censura ao mandar retirar conteúdos da internet. “O TSE está tentando esticar a corda para fazer com que esses atores (Ciedde e big techs) tenham mais proeminência no combate ao discurso de ódio. Mas é complicado deixá-los agir sem uma legislação sobre o tema”, afirma Yasmin Curzi, professora da FGV Direito Rio e coordenadora do projeto Mídia e Democracia. Dentro das campanhas, também há preocupação com arbítrios. “A IA é mais do que as fake news. Com ela, é possível estabelecer segmentações, fortalecer bolhas e trabalhar em grande escala a construção de opiniões. Como o TSE vai atuar com isonomia e capacidade de solução?”, diz o marqueteiro político Bruno Bernardes, da PLTK.
Há, por fim, uma curiosa ironia na cruzada do TSE: a mesma instituição que deu exemplo ao implantar uma das votações eletrônicas mais modernas do planeta é agora o santo guerreiro contra o dragão do mau uso da tecnologia. “A Justiça Eleitoral do Brasil, que sempre se beneficiou em larga escala do uso da tecnologia de ponta, paradoxalmente se vê diante dos riscos de desnaturação dela”, afirma o ex-ministro da Corte Tarcísio de Carvalho Neto. O enfrentamento do problema é de, fato, complexo, mas não pode ser feito sem obstinação, clareza e continuidade. O ministro Alexandre de Moraes, com seus erros e acertos, realizou importantes avanços. Mas é fundamental que o esforço possa ter sequência com a atuação de um órgão mais amplo, com mais agentes institucionais e mais estrutura para poder enfrentar o monstro de sete cabeças que povoa as redes sociais — que não só cresce, como se renova a cada dia.
Publicado em VEJA de 15 de março de 2024, edição nº 2884