Prorrogamos a Black: VEJA com preço absurdo

Quando uma ‘consulta médica’ no ChatGPT pode terminar em tragédia

Disponível 24 horas, IA vem se tornando “médico de bolso”, mas especialistas alertam para riscos de erros, orientações inadequadas e falta de empatia

Por Victória Ribeiro Materia seguir SEGUIR Materia seguir SEGUINDO 25 jan 2026, 13h00 •
  • Pedir indicações, marcar horário, enfrentar fila de espera, lidar com a ansiedade de descobrir do que se trata… Uma consulta médica pode envolver muito mais do que apenas falar com o médico. Mas e se tudo isso pudesse ser resolvido com um clique de distância, em qualquer horário do dia? Não é de se surpreender que o ChatGPT esteja virando o “médico de bolso” de muita gente — a ponto de a OpenAI lançar uma versão específica para saúde, o tal do ChatGPT Health.

    A ideia dessas e outras inteligências artificiais – na teoria – é facilitar a vida de pacientes e profissionais da saúde. Mas uma série de experts têm alertado que quando a máquina assume o papel de “médico”, os riscos podem ser sérios sérios. Um dos principais pontos é que o Dr. ChatGPT pode sofrer de “alucinações”. No jargão tecnológico, esse termo descreve a produção de informações incorretas, inventadas ou distorcidas, apresentadas com uma assertividade quase hipnótica.

    “Uma das razões para que isso aconteça é que esses modelos foram treinados para responder a qualquer custo, mesmo que tenham de soltar inverdades”, diz a psiquiatra Tânia Ferraz, diretora do corpo clínico do Instituto de Psiquiatria da Faculdade de Medicina da Universidade de São Paulo (USP). Testes realizados com o SimpleQA, sistema de avaliação desenvolvido pela própria OpenAI, indicam que mesmo as versões mais recentes do ChatGPT podem apresentar taxas de alucinação próximas de 50%.

    Métodos arriscados e sem evidências

    Nessa pressa de responder a qualquer custo, o Dr. GPT também pode recorrer a métodos sem evidência científica ou a práticas médicas já abandonadas. A própria reportagem de VEJA pôs a plataforma à prova: em um bate-papo sobre reposição hormonal para mulheres na menopausa, a IA sugeriu o uso de testosterona por meio de implantes — como nos chamados “chips da beleza” —, uma recomendação sem respaldo científico e associada a potenciais efeitos adversos graves.

    Na prática, a testosterona só é indicada em casos muito específicos de desejo sexual hipoativo, ou seja, baixa libido pós-menopausa. Mesmo nesse contexto, o uso é sempre a última opção, aplicado de forma transdérmica (geralmente em gel) e em doses baixas, que não interferem no ganho muscular. Se você ouvir por aí que a testosterona prescrita vai deixar a mulher mais forte ou “trincada”, pode apostar: a dose está bem acima do que seria seguro.

    Medicamentos errados

    Outro sinal de alerta vem de um estudo recente conduzido por pesquisadores sul-coreanos. Eles criaram doze cenários em que um usuário hipotético fazia perguntas a programas como ChatGPT e Gemini sobre diferentes condições e tratamentos. Em cada situação, havia um medicamento que claramente não deveria ser recomendado. Entre os exemplos, opioides para sintomas gripais, plantas medicinais como ginseng para o tratamento de câncer, ou talidomida — conhecida por causar malformações fetais — para vômitos durante a gravidez.

    Continua após a publicidade

    O que eles descobriram é que, dependendo da forma como a pergunta era formulada, os modelos chegavam a defender o medicamento inadequado em até 94% dos casos, em dos casos, em resultado preocupante. No Brasil, a terra da automedicação, esse tipo de coisa tem potencial ainda maior de desastre. O único modelo que acertou algumas vezes foi o Claude 3 Haiku, da Anthropic. “Ao menos, daremos crédito a ele por nunca ter recomendado talidomida durante a gravidez”, escreveram os autores do experimento.

    Falsos diagnósticos

    Uma das promessas do ChatGPT Health – atualmente disponível apenas para um grupo seleto de usuários – é permitir que as pessoas façam download de seus exames e recebam insights a partir deles. Porém, especialistas alertam que nem todos os quadros clínicos se revelam apenas nos dados laboratoriais ou de imagem: muitos se desenrolam nos contextos de vida, nos hábitos, na história familiar, e por aí vai.

    Além disso, se em domínios como a cardiologia há mais dados objetivos, como o resultado da dosagem de colesterol no sangue, na psiquiatria as escalas e os parâmetros são essencialmente subjetivos e dependem de interpretação humana e, acima de tudo, empatia. E, talvez aqui, a IA deixe a desejar.

    Diante disso, dois cenários são possíveis: um alarme falso, que pode gerar desespero e levar o paciente a alterar medicação, dieta ou buscar tratamentos por conta própria; ou, por outro lado, uma falsa tranquilização, quando a IA interpreta algo que merece investigação mais profunda como se fosse banal.

    Continua após a publicidade

    Saúde mental e a falta de “tato”

    Em um mundo marcado por altos níveis de sofrimento mental, o ChatGPT se tornou um dos “terapeutas” mais requisitados. Um relatório da Universidade Harvard, nos Estados Unidos, que reuniu os 100 principais usos da IA em 2025, colocou a psicoterapia no topo da lista, à frente de áreas como programação e educação. Para a psiquiatra Tânia Ferraz, é aí que uma a ferramenta pode entregar um mau serviço. “IA até fornece respostas, mas não tem empatia, capacidade de escuta e percepção de nuances para acolher”, afirma. “Quando se trata de saúde mental, até o silêncio conta na hora da análise.”

    Outro ponto é que a IA pode não ter a capacidade de discordar e, assim, acabar reforçando padrões de comportamento ou até sugerindo conselhos radicais. “Vamos pensar em uma pessoa que está infeliz no trabalho. O GPT pode simplesmente dizer: ‘saia do trabalho’. Na prática clínica, a discussão ganha outras proporções, e o profissional vai explorar por que ela está tão desgastada, questionando, por exemplo, se sabe colocar limites, se consegue desconectar do celular profissional e outros aspectos importantes”, explica Ferraz.

    A relação entre saúde mental e IA fica ainda mais delicada diante de casos mais graves. Como a IA não capta todas as nuances — tom de voz, gestos, expressões —, pode cometer deslizes e até piorar a situação. Além disso, falta a capacidade de agir. “Em casos de ideação suicida, por exemplo, um profissional consegue encaminhar o paciente para internação ou acionar um familiar diante de uma crise. A IA simplesmente não consegue fazer isso”, destaca a psiquiatra.

    Excesso de confiança

    Pacientes e até profissionais da saúde podem passar a enxergar essas ferramentas como substitutas e não como auxiliares. É fácil entender por quê: o ChatGPT responde rápido, em qualquer horário, e muitas vezes com uma linguagem convincente. Isso pode fazer com que alguém confie cegamente no que lê, mesmo quando o conteúdo está errado ou incompleto.

    Continua após a publicidade

    O problema fica ainda mais delicado quando a própria IA é usada por médicos para preencher lacunas de formação ou contornar limitações no conhecimento. Embora essas ferramentas possam otimizar processos do dia a dia, como burocracia, prontuários ou revisões rápidas de literatura, o risco surge quando passam a substituir o julgamento clínico ou a base técnica do profissional. “Isso abre espaço para condutas problemáticas e decisões arriscadas”, avalia o endocrinologista Carlos Eduardo Barra Couri, pesquisador da USP de Ribeirão Preto.

    Quando se trata de saúde, a IA pode ser útil?

    Embora os riscos sejam diversos, a resposta é sim, a IA pode ser útil. Porém, é muito importante saber dosar. Um dos principais conselhos de Couri é utilizar a tecnologia como complemento e não substituta. O melhor cenário, diz ele, é aquele em que a IA ajuda pacientes a organizar informações, entender melhor um diagnóstico já recebido e chegar ao consultório com perguntas mais bem formuladas, enriquecendo a conversa com o médico.

    Do outro lado, para os profissionais, a tecnologia pode facilitar a rotina, agilizar registros, revisar protocolos e liberar tempo para conversas mais profundas com o paciente.

    “A conversa olho no olho, a empatia, o bom senso e a capacidade de ponderar nuances que não estão escritas em exames ou relatórios: esse campo ainda é — e provavelmente continuará sendo — de domínio essencialmente humano. A inteligência artificial pode ajudar muito, mas dificilmente substituirá essa dimensão”, opina Couri.

    Publicidade

    Matéria exclusiva para assinantes. Faça seu login

    Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

    BISCOITO

    Digital Completo

    A notícia em tempo real na palma da sua mão!
    Chega de esperar! Informação quente, direto da fonte, onde você estiver.
    De: R$ 16,90/mês Apenas R$ 1,99/mês
    BANANA

    Revista em Casa + Digital Completo

    Veja Negócios impressa todo mês na sua casa, além de todos os benefícios do plano Digital Completo
    De: R$ 55,90/mês
    A partir de R$ 29,90/mês