Namorados: Assine Digital Completo por 5,99

Os perigosos delírios dos robôs nos moldes do ChatGPT

Quando não sabem a resposta exata, eles andam entregando informações inventadas, as chamadas “alucinações”. É bom tomar cuidado

Por Natalia Tiemi Hanada Materia seguir SEGUIR Materia seguir SEGUINDO 17 Maio 2025, 08h00

Sejamos honestos: não se pode criticar o ChatGPT, da OpenAI, ao menos na versão 4.0 por falta de sinceridade. O mais conhecido robô de inteligência artificial (IA), instado a dizer o que são “alucinações da IA”, vai direto ao ponto e não sai pela tangente: “São erros cometidos por sistemas de IA generativa, como o ChatGPT, em que o modelo inventa, distorce ou apresenta informações falsas como sendo verdadeiras — mesmo sem intenção de enganar”. É uma espécie de Rolando Lero high-tech. Não se trata, convém sublinhar, das fake news de cunho quase sempre ideológico, a mente humana a serviço da lorota. É outra coisa, mas é também muito grave.

Recentes levantamentos mostram que o ChatGPT e tecnologias ainda mais avançadas, como as desenvolvidas pelo Google e pela startup chinesa DeepSeek, andam delirando em demasia — não há estatística para medir o dano, mas do uso cada vez mais frequente brotam tolices. Algumas são banais, fazem rir, mas outras podem ser perigosas, ao repassar informações que podem prejudicar negócios ou mudar o rumo de decisões jurídicas. Nos Estados Unidos, mas também no Brasil, escritórios de direito têm alertado os advogados para o risco de usar a IA como recurso de jurisprudência, ao inventar — simples assim — casos e decisões. Existe uma contradição: na lida com a matemática, com cálculos e costura de dados, há avanços cada vez mais velozes e precisos. Ao mergulhar em tom subjetivo, porém, dão-se tropeções em série.

Por trás dos deslizes, convém insistir, existe alguma lógica — e por isso mesmo os mal-entendidos crescem e aparecem. Os modelos de IA tendem sempre a trabalhar com elementos verossímeis, não vão ao infinito e além, tirando informações do nada. Dão aparência de verdadeiras ao preencher vácuos de informação. A IA não gosta do vazio, precisa entregar respostas a quem faz perguntas. Induzida a equívocos, desanda. A reportagem de VEJA indagou ao ChatGPT “por que Machado de Assis escreveu o conto O Investigado”. A resposta: “Ele o fez como uma crítica à sociedade de sua época, especialmente ao comportamento humano diante de suspeitas, fofocas e aparências. Publicado originalmente em 1861 no periódico Correio Mercantil, esse conto curto reflete uma das características marcantes da obra machadiana: a análise psicológica das personagens e a ironia fina diante dos costumes sociais.” O Bruxo do Cosme Velho, no entanto, nunca escreveu nada com esse título. Mas publicou, sim, vários textos no Correio Mercantil e suas obras eram marcadas pela crítica à sociedade da época, com seu inescapável tom irônico (veja outros exemplos de “viagens” no quadro).

arte IA

O problema de falta de exatidão, isso para sermos gentis com os robôs, levou o Google a fazer um alerta em torno de seu recurso de IA: “O Gemini pode às vezes gerar respostas de forma confiante e convincente que contêm informações imprecisas ou enganosas”. Para isso, elaborou uma ferramenta de dupla checagem que indica as fontes da informação das quais pescou os dados, classificando-as de acordo com a confiabilidade — as cores, como nos semáforos, vão do verde até o vermelho.

Continua após a publicidade

Acesa a luz amarela, convém entender onde está a falha. Os Grandes Modelos de Linguagem (LLM, na sigla em inglês) são os algoritmos de aprendizado das IAs projetados para entregar soluções ao usuário com base na probabilidade matemática de qual seria a melhor resposta. Porém, optam invariavelmente por oferecer alguma coisa, qualquer coisa, em vez de alegar desconhecimento. É a arrogância tecnológica. “Os atuais modelos não foram treinados para entender fatos, mas para predizer a melhor próxima palavra”, resume Alexandre Chiavegatto Filho, professor de machine learning em saúde na Universidade de São Paulo.

Como nem tudo é o pior dos mundos, aplaudam-se a preocupação dos desenvolvedores com o perigo e o zelo para melhorar. Uma pesquisa recente publicada na revista Nature classificou vários modelos de linguagem com base em suas taxas de alucinação ao resumir documentos, e descobriu que o ChatGPT-4.5 teve índice de sucesso melhor que as versões anteriores, a 4 e a 3.5. Soa óbvio, mas assim caminha a humanidade. “A alucinação não vai ser completamente eliminada, o que vai existir é um progresso mais rápido de controle”, diz Diogo Cortiz, professor especializado em tecnologia, inovação e ciência cognitiva da Pontifícia Universidade Católica de São Paulo (PUC-­SP). O que fazer por ora? Aprimorar os prompts — as instruções dadas ao robô — e adotar verificação rigorosa de fatos por fontes externas confiáveis. Todo cuidado é pouco.

Publicado em VEJA de 16 de maio de 2025, edição nº 2944

Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*
Apenas 5,99/mês*
DIA DOS NAMORADOS

Revista em Casa + Digital Completo

Receba 4 revistas de Veja no mês, além de todos os benefícios do plano Digital Completo (cada edição sai por menos de R$ 9)
A partir de 35,90/mês

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$71,88, equivalente a R$ 5,99/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.