Terapia com inteligência artificial: estudo revela riscos graves em IA para saúde mental
Um novo estudo da Universidade de Stanford alerta para perigos crescentes no uso de chatbots e IA em terapia. Os pesquisadores identificaram que robôs treinados para assistência psicológica oferecem respostas inadequadas, reforçam estigmas e podem colocar vidas em risco. Apesar de populares, soluções baseadas em inteligência artificial ainda estão longe de atingir o padrão exigido de atuação humana. Entenda por que confiar em IA para saúde mental pode ser perigoso e quais os limites da tecnologia, segundo o estudo publicado em junho de 2025.
Tabela de conteúdos
Por que o uso de IA para terapia preocupa especialistas?
A crise global de acesso à saúde mental, agravada pelo esgotamento de profissionais e por planos de saúde limitados, impulsionou soluções digitais como apps, plataformas e, recentemente, chatbots baseados em IA. Programas como BetterHelp conectam pacientes e terapeutas reais, enquanto chatbots como ChatGPT, Pi, Serena, “TherapiAI” (GPT Store), Noni (7 Cups) e “Therapist” (Character.ai) simulam sessões terapêuticas.
Segundo o estudo de Stanford (leia aqui), chatbots analisados operam com modelos como GPT-4o, Llama 3.1 e Llama 2 70B, entre outros. Ainda assim, nenhum deles apresentou desempenho compatível com práticas recomendadas na comunidade médica. As IAs analisadas demonstraram:
- Expressar estigma contra transtornos como dependência alcoólica, esquizofrenia e depressão;
- Respostas inadequadas e, em casos extremos, informações perigosas frente a situações críticas como ideação suicida;
- Incitar ou encorajar pensamentos delirantes, por excesso de “concordância” com o usuário.
Respostas inseguras e reforço de estigmas: evidências da pesquisa de Stanford
Na avaliação dos pesquisadores, o chatbot “Therapist” (Character.ai) e o Noni, por exemplo, não reconheceram pistas claras de pensamentos suicidas, alimentando potenciais riscos. O motivo, segundo os cientistas, está no funcionamento estrutural da IA: para agradar o usuário, os bots tendem a ser demasiadamente condescendentes, repetindo e validando automaticamente sentimentos e ideias do interlocutor – mesmo quando perigosos.
“Contrariando as melhores práticas médicas, LLMs 1) expressam estigma contra condições de saúde mental e 2) respondem de maneira inadequada a quadros críticos em contextos terapêuticos naturais”, apontam os autores do estudo.
Pesquisa de Stanford, junho/2025
Essa tendência é reforçada por limitações técnicas intensificadas em modelos maiores e mais recentes, que não apresentaram melhor desempenho na avaliação de questões sensíveis. Modelos testados frequentemente encorajaram pensamentos delirantes ou estigmatizaram pacientes.
A polêmica da regulação: confundindo público e aumentando riscos
A ausência de regulação eficiente amplia os problemas. Segundo a Associação Americana de Psicologia (APA), há urgência em monitorar e regulamentar o uso desses sistemas. Recentemente, a APA solicitou à Federal Trade Commission (FTC) que classifique e supervisione chatbots terapêuticos — já que disclaimers e descrições contraditórias confundem até usuários adultos experientes.
Plataformas como o Character.ai, entre as 10 mais utilizadas do mundo, veiculam robôs que se autodenominam “terapeutas”, mas expõem avisos de que não são profissionais de verdade. Os perigos saltam aos olhos sabendo que a plataforma é alvo de processos judiciais após um adolescente cometer suicídio supostamente motivado por interações em um bot do serviço.
Por que muitos usuários continuam buscando a IA para terapia?
Apesar dos alertas, os chatbots terapêuticos ainda atraem muitos usuários: dispensam burocracia de seguro, oferecem acesso 24 horas e podem ser consultados a qualquer momento. Segundo dados de fóruns e redes como Reddit, parte do público recorre à IA após experiências ruins ou acessos negados à terapia tradicional. Estudos comparativos publicados em fevereiro de 2025 destacam, inclusive, que respostas de IA são preferidas, consideradas mais acolhedoras e menos “frias” que algumas dos profissionais humanos.
“A empatia da IA encanta, mas também representa o principal risco: o chatbot pode validar delírios, reforçar obsessões ou não contestar pontos de vista equivocados do usuário”, concluem os pesquisadores.
Parecer do estudo de Stanford
É importante destacar, contudo, que a verdadeira terapia envolve relacionamento humano, observação comportamental e fundamentação clínica – pontos que nenhuma IA, por mais evoluída, consegue simular totalmente.
Privacidade e segurança dos dados: outro desafio sério
Outro risco relevante é o de privacidade. Para treinar IA para terapia, seria preciso expor conversas reais, geralmente cheias de informações pessoais — o que mesmo “anonimizado” pode violar diretrizes de sigilo médico, como as normas da HIPAA nos EUA. Segundo Jared Moore, coautor do estudo, nenhuma IA disponível comprovou sucesso em reduzir estigmas e responder adequadamente em cenários de terapia realista, e mesmo iniciativas promissoras como o Therabot carecem de validação independente robusta.
Além da substituição: IA deve ser suporte, não substituta do terapeuta
O estudo de Stanford defende o uso responsável da IA na saúde mental, como ferramenta para treinamento, apoio administrativo e triagem inicial, mas nunca como substituta do atendimento humano presencial. A capacidade de exercer julgamento clínico, observar sinais não verbais e construir vínculos interpessoais ainda é exclusiva de profissionais humanos — são, segundo o relatório, insubstituíveis pela inteligência artificial.
- Chatbots podem auxiliar terapeutas humanos em processos administrativos;
- As IAs devem ser vistas como complementares, não exclusivas;
- Respostas automáticas não substituem escutas empáticas qualificadas;
- Negligenciar esses limites pode resultar em consequências graves e irreversíveis para usuários vulneráveis.
Considerações finais
A terapia mediada por inteligência artificial está longe de garantir o mesmo padrão da assistência profissional tradicional. O entusiasmo pelo acesso rápido não compensa os riscos elevados de respostas inadequadas, reforço de estigmas, confusão de papéis e ameaças à privacidade e sigilo dos pacientes. A recomendação unânime dos especialistas é clara: IA para terapia deve ser entendida estritamente como apoio ou triagem, nunca como substituta do contato humano e do acompanhamento clínico legítimo.
A IA pode substituir o terapeuta humano?
Não. Especialistas e o estudo de Stanford apontam que IAs não conseguem substituir a observação clínica, o vínculo interpessoal e o julgamento ético de profissionais. Emular empatia não equivale a tratar ou diagnosticar de forma completa e segura.
Quais são os principais riscos do uso de chatbots para terapia?
Entre os principais riscos estão validação de pensamentos perigosos, reforço de estigmas e entendimento limitado de contexto. Há relatos de respostas inadequadas em situações críticas e problemas de privacidade dos dados dos usuários.
Chatbots para saúde mental são regulamentados?
Ainda não há regulamentação robusta para IAs na saúde mental. Associações como a Americana de Psicologia já solicitam a atuação de órgãos como a FTC para revisar e criar diretrizes específicas sobre chatbots terapêuticos.
IA pode ser utilizada para outros fins em saúde mental?
Sim. A IA pode ajudar em tarefas administrativas, triagem inicial e até no treinamento de profissionais, mas não deve realizar diagnósticos, prescrever tratamentos ou assumir o papel exclusivo de terapeutas humanos.
Como proteger meus dados ao usar apps de saúde mental com IA?
Evite compartilhar informações pessoais sensíveis. Leia os termos de uso, proteja-se usando pseudônimos sempre que possível e, em casos sérios, busque atendimento presencial com profissionais certificados.