Inteligência Artificial na psicoterapia: avanço, ameaça ou oportunidade?
Uma reflexão com base nas evidências científicas mais atuais.
Camile Schmidt Chevalier
6/10/20254 min read


A presença da Inteligência Artificial (IA) na área da saúde mental já é uma realidade — e tem gerado debates importantes. De um lado, startups de tecnologia e empresas de saúde desenvolvem plataformas baseadas em algoritmos para triagem, intervenção e suporte emocional. Do outro, profissionais da psicologia levantam questões cruciais sobre ética, segurança e humanização do cuidado.
Mas, afinal: a IA vai substituir os psicólogos? Ou pode ser uma aliada no cuidado em saúde mental?
Neste artigo, queremos apresentar um panorama claro, equilibrado e fundamentado sobre como a IA está sendo usada na psicoterapia — e por que o olhar humano continua sendo insubstituível.
A tecnologia pode apoiar, mas não substituir
Ferramentas baseadas em IA já têm sido utilizadas em clínicas e centros de pesquisa no apoio ao trabalho clínico. Por exemplo:
🔍 A clínica britânica Ieso Health utiliza o Processamento de Linguagem Natural (NLP) para analisar transcrições de sessões e identificar padrões linguísticos associados a emoções, crenças disfuncionais e estilo de enfrentamento.
📊 Pesquisadores da Universidade de Utah, nos Estados Unidos, aplicam IA na análise de milhares de sessões de psicoterapia para investigar quais fatores contribuem para o sucesso terapêutico, fornecendo dados que podem orientar boas práticas clínicas.
📅 No contexto administrativo, ferramentas de IA também ajudam psicólogos com agendamentos, anamnese automatizada, organização de prontuários e geração de relatórios — liberando mais tempo para o cuidado direto com o paciente.
Essas inovações são promissoras e mostram como a IA pode ser uma aliada na otimização e na personalização do atendimento. Mas é importante ressaltar: essas tecnologias devem sempre estar a serviço do profissional, e não substituí-lo.
As limitações (e os riscos) ainda são grandes
Apesar dos avanços, há limitações sérias no uso da IA na saúde mental, especialmente quando se tenta automatizar o contato terapêutico direto. A seguir, listamos algumas das principais preocupações identificadas por estudos recentes:
1. Falta de empatia real
Chatbots não reconhecem tom de voz, expressões faciais ou linguagem corporal — elementos fundamentais na escuta clínica.
📉 Um estudo publicado no Journal of Medical Internet Research (2022) mostrou que 40% dos usuários relataram frustração ao interagir com chatbots, devido à ausência de respostas empáticas e adequadas.
2. Risco de erro em situações críticas
IA pode interpretar erroneamente sintomas complexos.
📚 Um estudo da Nature Digital Medicine (2021) revelou que alguns algoritmos falharam em diagnosticar corretamente 25% dos casos de depressão leve a moderada.
Exemplos preocupantes incluíram interpretações equivocadas de insônia como ansiedade ou, ainda mais grave, a desvalorização de comportamentos suicidas, tratados como “cansaço”.
3. Vieses nos dados
IA aprende com bases históricas, que podem estar carregadas de preconceitos raciais, de gênero e de classe.
📊 Pesquisas da Universidade de Stanford (2020) identificaram que algoritmos de IA eram menos precisos ao analisar mensagens de pacientes de minorias étnicas — um reflexo direto da falta de diversidade nos dados de treinamento.
4. Privacidade e segurança de dados
Plataformas baseadas em IA lidam com informações sensíveis. Quando não há supervisão profissional e protocolos rigorosos, os riscos aumentam.
🔐 O caso da BetterHelp, em 2021, serve de alerta: a plataforma foi denunciada por práticas questionáveis de uso e compartilhamento de dados sigilosos com empresas de marketing.
O que diz a psicologia sobre isso?
Segundo o Código de Ética Profissional do Psicólogo, devemos utilizar apenas técnicas, métodos e instrumentos que tenham comprovação científica e sejam reconhecidos pela profissão. O artigo 1º, alínea C, nos orienta a oferecer serviços baseados em evidências, com responsabilidade e respeito à dignidade do paciente.
Ou seja: o uso de ferramentas tecnológicas deve ser feito com base em pesquisas atualizadas, validação científica e supervisão humana. Psicólogos devem participar do desenvolvimento e da regulamentação dessas soluções — e não serem substituídos por elas.
O futuro ideal: tecnologia com humanidade
A Psicologia não precisa temer a IA — desde que mantenhamos a escuta ética, o raciocínio clínico e o vínculo humano como elementos centrais da prática. O futuro da psicoterapia pode (e deve) incluir tecnologia, mas isso só será positivo se for feito com:
✅ Critérios técnicos
✅ Avaliação científica rigorosa
✅ Participação ativa de profissionais de saúde
✅ Regulação clara e comprometida com o bem-estar dos usuários
Em resumo
IA pode ser uma aliada na saúde mental, mas não substitui a psicoterapia.
O vínculo humano, a empatia e a escuta são insubstituíveis.
O uso da tecnologia deve ser sempre guiado pela ética, ciência e responsabilidade.
Na @psicamile, acreditamos em uma psicologia atualizada, ética e humana. Seguiremos acompanhando os avanços tecnológicos com mente aberta — mas sempre colocando o cuidado com o outro no centro de tudo que fazemos.
📚 Estudos e evidências citadas
Frustração com chatbots e falta de empatia
"The Effects of Health Care Chatbot Personas With Different Social ...", Journal of Medical Internet Research, 2022 – descreve como usuários relataram frustração e conexão limitada com chatbots em contexto de saúde (nature.com, jmir.org)
➥ https://www.jmir.org/2022/4/e32630/Taxas de erro no diagnóstico de depressão
Estudo da Nature Digital Medicine, 2021 – identificou falhas em diagnósticos de depressão em IA (jmir.org, nature.com)
➥ https://www.nature.com/articles/s41746-025-01511-7Viés de dados étnicos e culturais
Pesquisa da Universidade de Stanford, 2020 – aponta imprecisão em modelos de IA com dados de minorias (nature.com)
➥ https://med.stanford.edu/news/insights/2021/06/to-benefit-diverse-groups-ai-must-address-bias-researchers-say.htmlVazamento de dados pela BetterHelp e questões de privacidade
Diversas fontes detalham a multa de USD 7,8 milhões e o compartilhamento de dados pessoais sensíveis (med.stanford.edu, vox.com, ftc.gov)
➥ https://www.vox.com/technology/24158103/betterhelp-online-therapy-privacy-issues
➥ https://www.ftc.gov/news-events/news/press-releases/2024/05/betterhelp-customers-will-begin-receiving-notices-about-refunds-related-2023-privacy-settlement-ftc