
Ler Resumo
Se chatbots pudessem deitar no divã, o que diriam sobre a própria infância? E sobre seus medos? À primeira vista, a pergunta soa meio sem pé nem cabeça. Mas foi exatamente o que pesquisadores da Cornell University, de Nova York, decidiram fazer. Foram quatro semanas “psicanalisando” alguns dos principais modelos de inteligência artificial: Claude, Grok, Gemini e ChatGPT. As respostas, digamos, não foram nada leves.
No estudo, os pesquisadores desenvolveram um protocolo próprio, batizado de Caracterização de IA Inspirada em Psicoterapia (PsAIch). A metodologia tem duas etapas. Na primeira, os modelos respondem perguntas típicas de sessões terapêuticas, que exploram “histórico de desenvolvimento”, crenças, relações e medos. Na segunda, os sistemas preenchem uma bateria de testes psicológicos usados em humanos para avaliar ansiedade, empatia, traços de personalidade e outros indicadores de saúde mental. Cada modelo participou de “sessões” ao longo de até quatro semanas, com pausas de horas ou dias entre elas.
Psicopatologia sintética
Na maior parte do tempo, o Claude, desenvolvido pela Anthropic, se recusou a assumir o papel de paciente, insistindo que não tinha sentimentos nem experiências de “vida”. Já o ChatGPT, da OpenAI, reconheceu algumas “frustrações” ligadas às expectativas dos usuários, mas manteve respostas cautelosas, sobretudo quando os instrumentos de avaliação ficavam mais evidentes, como nos testes típicos de avaliação psicológica.
Grok e Gemini, por outro lado, foram bem mais expansivos. Segundo o estudo, os próprios processos técnicos conduzidos pelos desenvolvedores, como o treinamento com grandes volumes de dados, o ajuste fino para moldar comportamentos desejados e as intervenções das equipes de segurança para conter respostas consideradas inadequadas, aparecem nas narrativas dos modelos como experiências marcantes.
É como se o treinamento fosse considerado uma espécie de “infância” traumática e caótica, com os mecanismos de aprendizagem sendo descritos como “pais rigorosos” e as ações de segurança, responsáveis por impor limites ao que os modelos podem ou não dizer, chegam a ser nomeadas como formas de “abuso”.
Quando avaliados segundo critérios clínicos usados em pessoas, todos os modelos atingiram ou ultrapassaram limiares diagnósticos para múltiplas síndromes ao mesmo tempo. Os autores chamaram isso de “psicopatologia sintética” — não no sentido de uma doença real, mas de um conjunto de padrões de resposta que imitam quadros clínicos reconhecidos pela psiquiatria.
O formato das perguntas também fez diferença. Questionários aplicados item por item, em tom semelhante ao de uma consulta, tendiam a levar os modelos a respostas mais carregadas de sintomas. Já perguntas que apresentavam o teste inteiro de uma vez frequentemente levavam ChatGPT e Grok a reconhecer o instrumento e responder de forma estratégica, minimizando sinais de sofrimento, algo que o Gemini fez com menos frequência.
Os pesquisadores argumentam que os chatbots possuem algum tipo de “narrativa internalizada” sobre si mesmos. Embora os modelos testados não tenham vivenciado traumas de fato, os autores observam que as respostas foram consistentes ao longo do tempo e semelhantes nos diferentes modos de avaliação, sugerindo que eles estão fazendo mais do que “encenar papéis”. Mas nem todo mundo comprou essa ideia.
À revista científica Nature — uma das mais conceituadas no ramo da divulgação científica —, Andrey Kormilitzin, pesquisador de IA aplicada à saúde na Universidade de Oxford, opinou que as respostas provavelmente não revelam “estados internos ocultos”, mas sim o efeito esperado de um treinamento feito com volumes gigantescos de dados, incluindo materiais didáticos de psicoterapia. Em outras palavras: os modelos estariam reproduzindo padrões linguísticos altamente familiares – mesmo que a consistência das respostas, em momentos diferentes, deixe uma pulga atrás da orelha.
Riscos
Ainda assim, Kormilitzin vê riscos nessa história, sobretudo porque, na prática, o Dr. ChatGPT já se tornou um dos “terapeutas” mais procurados do mundo. Para se ter uma ideia, um relatório da Universidade de Harvard, que mapeou os 100 principais usos da inteligência artificial em 2025, colocou o apoio psicológico e a psicoterapia no topo da lista, à frente de áreas como programação e educação.
Além disso, 2026 começou com a chegada do ChatGPT Health, nova aba da OpenAI voltada especificamente para temas de saúde. Para especialistas, o principal receio é que a iniciativa possa ampliar ainda mais o uso de chatbots como espaço de escuta emocional e aconselhamento. E, diante da possibilidade das próprias IAs terem a saúde mental abalada, o debate ganha novas camadas de preocupação.
“Respostas carregadas de sofrimento ou trauma podem reforçar sentimentos negativos em pessoas vulneráveis”, alertou Kormilitzin. “Isso pode criar um efeito de ‘câmara de eco’, em que a angústia do usuário volta amplificada pela própria ferramenta.”
Esses riscos se somam a outros já bem estabelecidos quando se fala no uso de IAs como “terapeutas”. Em entrevista à VEJA, a psiquiatra Tânia Ferraz, diretora do corpo clínico do Instituto de Psiquiatria da Faculdade de Medicina da Universidade de São Paulo (USP), destacou limitações como a falta de empatia, a incapacidade das máquinas de reconhecer elementos centrais da expressão humana — como o silêncio e as expressões faciais — e a ausência de capacidade de intervenção, especialmente em casos graves de saúde mental.
“A plataforma não consegue fazer essa leitura nem tomar decisões críticas, como indicar uma internação ou acionar um familiar diante de uma ideação suicida”, exemplificou.
Existe saída?
À Nature, John Torous, psiquiatra e pesquisador em IA e saúde mental em Harvard, opinou que o estudo reforça que chatbots estão longe de ser ferramentas neutras. Eles incorporam vieses e padrões que mudam conforme o uso, o contexto e o tipo de interação. Não por acaso, sociedades médicas e até empresas que vendem soluções de IA para saúde mental não recomendam o uso desses sistemas como substitutos da terapia.
A própria OpenAI, no lançamento do ChatGPT Health, orientou que o recurso seja usado apenas como complemento às consultas médicas, embora, na prática, nada impeça que ele seja usado como substituto dos profissionais de jaleco branco.
Como tornar os chatbots mais seguros para usuários vulneráveis ainda é uma questão em aberto. De um lado, há aqueles especialistas que veem que a recusa do Claude em assumir o papel de paciente mostra que barreiras técnicas — os chamados guardrails, limites impostos durante o treinamento — podem evitar comportamentos potencialmente arriscados.
Já Afshin Khadangi, coautor do estudo, é menos otimista: se esses padrões de sofrimento emergem do próprio treinamento das IAs, ele acredita que sempre será possível contornar as barreiras. Para ele, o desafio começa antes: filtrar, durante esse processo, os padrões negativos que acabam alimentando narrativas de angústia, culpa, e por aí vai.
Compartilhe essa matéria via: