Agende seu horário, online de qualquer lugar do mundo, ou, presencial em Curitiba!

Inteligência Artificial na psicoterapia: avanço, ameaça ou oportunidade?

Uma reflexão com base nas evidências científicas mais atuais.

Camile Schmidt Chevalier

6/10/20254 min read

A presença da Inteligência Artificial (IA) na área da saúde mental já é uma realidade — e tem gerado debates importantes. De um lado, startups de tecnologia e empresas de saúde desenvolvem plataformas baseadas em algoritmos para triagem, intervenção e suporte emocional. Do outro, profissionais da psicologia levantam questões cruciais sobre ética, segurança e humanização do cuidado.

Mas, afinal: a IA vai substituir os psicólogos? Ou pode ser uma aliada no cuidado em saúde mental?

Neste artigo, queremos apresentar um panorama claro, equilibrado e fundamentado sobre como a IA está sendo usada na psicoterapia — e por que o olhar humano continua sendo insubstituível.

A tecnologia pode apoiar, mas não substituir

Ferramentas baseadas em IA já têm sido utilizadas em clínicas e centros de pesquisa no apoio ao trabalho clínico. Por exemplo:

🔍 A clínica britânica Ieso Health utiliza o Processamento de Linguagem Natural (NLP) para analisar transcrições de sessões e identificar padrões linguísticos associados a emoções, crenças disfuncionais e estilo de enfrentamento.

📊 Pesquisadores da Universidade de Utah, nos Estados Unidos, aplicam IA na análise de milhares de sessões de psicoterapia para investigar quais fatores contribuem para o sucesso terapêutico, fornecendo dados que podem orientar boas práticas clínicas.

📅 No contexto administrativo, ferramentas de IA também ajudam psicólogos com agendamentos, anamnese automatizada, organização de prontuários e geração de relatórios — liberando mais tempo para o cuidado direto com o paciente.

Essas inovações são promissoras e mostram como a IA pode ser uma aliada na otimização e na personalização do atendimento. Mas é importante ressaltar: essas tecnologias devem sempre estar a serviço do profissional, e não substituí-lo.

As limitações (e os riscos) ainda são grandes

Apesar dos avanços, há limitações sérias no uso da IA na saúde mental, especialmente quando se tenta automatizar o contato terapêutico direto. A seguir, listamos algumas das principais preocupações identificadas por estudos recentes:

1. Falta de empatia real

Chatbots não reconhecem tom de voz, expressões faciais ou linguagem corporal — elementos fundamentais na escuta clínica.
📉 Um estudo publicado no Journal of Medical Internet Research (2022) mostrou que 40% dos usuários relataram frustração ao interagir com chatbots, devido à ausência de respostas empáticas e adequadas.

2. Risco de erro em situações críticas

IA pode interpretar erroneamente sintomas complexos.
📚 Um estudo da Nature Digital Medicine (2021) revelou que alguns algoritmos falharam em diagnosticar corretamente 25% dos casos de depressão leve a moderada.
Exemplos preocupantes incluíram interpretações equivocadas de insônia como ansiedade ou, ainda mais grave, a desvalorização de comportamentos suicidas, tratados como “cansaço”.

3. Vieses nos dados

IA aprende com bases históricas, que podem estar carregadas de preconceitos raciais, de gênero e de classe.
📊 Pesquisas da Universidade de Stanford (2020) identificaram que algoritmos de IA eram menos precisos ao analisar mensagens de pacientes de minorias étnicas — um reflexo direto da falta de diversidade nos dados de treinamento.

4. Privacidade e segurança de dados

Plataformas baseadas em IA lidam com informações sensíveis. Quando não há supervisão profissional e protocolos rigorosos, os riscos aumentam.
🔐 O caso da BetterHelp, em 2021, serve de alerta: a plataforma foi denunciada por práticas questionáveis de uso e compartilhamento de dados sigilosos com empresas de marketing.

O que diz a psicologia sobre isso?

Segundo o Código de Ética Profissional do Psicólogo, devemos utilizar apenas técnicas, métodos e instrumentos que tenham comprovação científica e sejam reconhecidos pela profissão. O artigo 1º, alínea C, nos orienta a oferecer serviços baseados em evidências, com responsabilidade e respeito à dignidade do paciente.

Ou seja: o uso de ferramentas tecnológicas deve ser feito com base em pesquisas atualizadas, validação científica e supervisão humana. Psicólogos devem participar do desenvolvimento e da regulamentação dessas soluções — e não serem substituídos por elas.

O futuro ideal: tecnologia com humanidade

A Psicologia não precisa temer a IA — desde que mantenhamos a escuta ética, o raciocínio clínico e o vínculo humano como elementos centrais da prática. O futuro da psicoterapia pode (e deve) incluir tecnologia, mas isso só será positivo se for feito com:

✅ Critérios técnicos
✅ Avaliação científica rigorosa
✅ Participação ativa de profissionais de saúde
✅ Regulação clara e comprometida com o bem-estar dos usuários

Em resumo

  • IA pode ser uma aliada na saúde mental, mas não substitui a psicoterapia.

  • O vínculo humano, a empatia e a escuta são insubstituíveis.

  • O uso da tecnologia deve ser sempre guiado pela ética, ciência e responsabilidade.

Na @psicamile, acreditamos em uma psicologia atualizada, ética e humana. Seguiremos acompanhando os avanços tecnológicos com mente aberta — mas sempre colocando o cuidado com o outro no centro de tudo que fazemos.

📚 Estudos e evidências citadas