Especialistas alertam para riscos do uso de IA como terapeuta: “Não foi programada para isso”

A nova funcionalidade de usar inteligência artificial (IA) como suporte emocional ou até como substituto terapêutico tem ganhado atenção — e preocupação — de especialistas em saúde mental.
Em matéria veiculada no Fantástico em 14 de setembro de 2025, profissionais destacam que, embora a tecnologia ofereça facilidades inéditas, ela traz perigos sérios quando usada sem mediação humana e compreensão adequada dos limites.
Neste artigo, você confere os principais alertas, contextos, riscos e recomendações para quem pensa em recorrer à IA para cuidar da saúde mental.
A crescente adoção da IA na saúde mental
Nos últimos anos, a IA deixou de ser apenas ferramenta técnica para automação ou interação básica e passou a atuar em áreas mais sensíveis, como suporte psicológico, aconselhamento emocional e autoajuda.
Apps de chat, bots que respondem mensagens, algoritmos que sugerem condutas e até assistentes virtuais têm sido usados por pessoas que buscam escuta, alívio de angústias ou ajuda para enfrentar crises emocionais.
Parte desse uso decorre da facilidade: a IA está disponível 24 horas, muitas vezes sem custo direto, com promessa de responder sempre, sem julgamento, e sem necessidade de agendamento ou deslocamento.
Esse apelo aumentou especialmente em contextos onde o acesso a profissionais de psicologia ou psiquiatria é limitado ou demorado.
O alerta dos especialistas
Na reportagem do Fantástico, Christian Dunker, psicanalista, professor titular de psicanálise e psicopatologia da USP, foi entrevistado e levantou dúvidas centrais sobre essa tendência.
Ele afirma que a IA não foi programada para exercer terapia, no sentido clínico e humano da palavra.
Embora possa simular empatia, gerar respostas consistentes ou “ouvir” sem interrupções, ela carece de formação, experiência e responsabilidade — atributos essenciais de um terapeuta de carne e osso.
Os especialistas enfatizam que uma terapia verdadeira envolve não só escuta, mas também desafio, diferença, subjetividade, ética, confidencialidade, e responsabilidade pelo processo.
Quando se fala de saúde mental, erros, deslizes, interpretações equivocadas ou ausência de nuance podem causar danos em vez de alívio.
Quais são os riscos de usar IA como terapeuta?
A seguir, os principais perigos identificados pelos especialistas:
Dependência emocional ou psicológica
Usuários podem começar a preferir o conforto de falar com uma IA ao invés de enfrentar o desconforto inerente a uma terapia humana, com reflexão profunda e possíveis confrontos. Essa dependência pode retardar ou impedir que se busque ajuda profissional adequada quando necessário.Falta de julgamento clínico e diagnóstico seguro
IA não tem formação profissional para diagnosticar transtornos mentais, avaliar gravidade do sofrimento, risco de autoagressão ou suicídio, ou distinguir situações em que intervenções humanas são obrigatórias.Respostas genéricas e inadequadas
Modelos de IA tendem a repetir padrões treinados: validação excessiva, afirmações simpáticas e evasivas, fugindo de confrontação ou análise profunda. Em casos de pensamentos distorcidos, isso pode reforçar crenças problemáticas em vez de desafiá-las.Privacidade, confidencialidade e uso de dados
As conversas com bots ou apps ficam gravadas ou processadas por servidores, muitas vezes com políticas de privacidade pouco claras ou submetidas a riscos de vazamento, uso indevido ou até comercialização.Limitações éticas e legais
Quem responde pela IA quando algo dá errado? Se a IA induzir alguém a uma ação perigosa ou agravar um quadro, como lidar com responsabilidade civil ou ética? Esse é um campo pouco regulamentado.Desigualdade no efeito
O uso indiscriminado pode afetar mais gravemente pessoas vulneráveis — quem sofre de transtornos mentais graves, isolamento social, histórico de trauma ou pessoas sem suporte social. Sem rede de apoio ou acompanhamento profissional, os riscos aumentam.
O que a IA pode fazer, de fato, segundo os especialistas
Nem tudo é problema: há usos válidos e complementares da IA quando usados com cautela. Alguns benefícios reconhecidos:
Apoio inicial ou emergencial: em momentos de angústia imediata, quando não há outro recurso, a IA pode oferecer escuta ou distração.
Ferramenta complementar: para reforçar técnicas de terapia, organizar registro de emoções, lembrar práticas, fazer exercícios cognitivos ou emocionais sugeridos por profissional.
Acesso ampliado: em áreas com escassez de profissionais de saúde mental, a IA pode diminuir a lacuna no atendimento, desde que não substitua terapeuta humano.
Quando a IA não deve ser usada como terapia
Os especialistas recomendam que a IA nunca seja considerada substituta de terapia em casos como:
pensamentos suicidas ou automutilação;
crises psicológicas agudas ou psicoses;
traumas recentes ou transtornos mentais graves;
quando há risco para a integridade física ou segurança da pessoa ou de terceiros;
quando se necessita de um tratamento clínico ou medicamentoso supervisionado.
Recomendações para uso seguro
Para quem quiser usar IA como apoio emocional (e não como terapia substituta), estas diretrizes ajudam a reduzir riscos:
Consultar um profissional de saúde mental antes de depender da IA — seja psicólogo, psiquiatra ou terapeuta qualificado.
Usar a IA como complemento e não como principal fonte de ajuda — pensar nela como instrumento, não como substituto.
Verificar credibilidade do serviço, política de privacidade, quem desenvolveu, se há supervisão ou revisão profissional.
Monitorar o impacto: observar se o uso da IA melhora ou piora seu estado emocional, se há dependência ou evitação de ajuda profissional.
Priorizar a empatia, contexto e subjetividade — conversar com pessoas de confiança, manter terapia humana quando possível.