A Inteligência Artificial (IA) tem ganhado espaço em áreas antes inimagináveis — inclusive na saúde mental. Com mais de 12 milhões de brasileiros utilizando plataformas como o ChatGPT para desabafar ou buscar conselhos, cresce o debate sobre os limites éticos, os riscos clínicos e os impactos emocionais dessa prática. A IA pode oferecer conforto momentâneo, mas será que ela está preparada para lidar com a complexidade da psique humana?
Conversamos com dois especialistas: Fabiana Chaves, psicóloga clínica com especialização em Psicologia Junguiana e Sistêmica, e Welder Rodrigo Vicente, psicólogo e professor do curso de Psicologia da Faseh (MG), que analisam o fenômeno e apresentam suas perspectivas sobre esse comportamento global.
Por que tanta gente está recorrendo à IA?
A resposta imediata, o anonimato e a ausência de julgamento são atrativos poderosos. “Diante de pensamentos como ‘ninguém vai me ouvir’ ou ‘não tenho com quem falar’, a acessibilidade da IA cria uma resposta imediata de reforço — alguém ‘responde’ e ‘valida’ em tempo real”, explica Welder.
Fabiana complementa: “A facilidade proporcionada pela IA pode, na verdade, dificultar a construção de vínculos autênticos, prejudicando a capacidade de provocar reflexões com mais profundidade sobre escolhas e decisões.”

Os riscos invisíveis
Ambos os especialistas são enfáticos: a IA não substitui o olhar clínico humano. “Ela não apreende nuances de história de vida, microexpressões, entonação de voz ou mudanças sutis no estado afetivo — elementos essenciais para identificar agravamentos de sintomas”, alerta Welder.
Fabiana reforça que a IA não acessa o mundo simbólico e inconsciente do paciente.
“Sem a intuição emocional e vivências humanas, a IA pode não conseguir identificar razões profundas e muitas vezes não evidentes, que estão por trás de determinado comportamento ou sintoma.”
Embora a IA consiga interpretar palavras, ela não acessa o universo simbólico e inconsciente que permeia o sofrimento humano. Em contextos terapêuticos, o que não é dito — os silêncios, os gestos, os lapsos — muitas vezes fala mais alto do que o discurso explícito.
Exclusivos para profissionais habilitados
Apesar da empatia que a IA pode apresentar, Fabiana lembra que a realização de diagnósticos e orientações de tratamentos permanecem sendo exclusivos de profissionais de saúde mental devidamente qualificados e licenciados.
“Sob a perspectiva da Terapia Cognitivo-Comportamental (TCC), que se fundamenta em uma avaliação contínua, estabelecimento de metas e intervenções estruturadas, a IA não possui a capacidade de realizar uma análise clínica contextualizada. O maior perigo é a confusão entre suporte conversacional e intervenção terapêutica. A TCC se baseia em formulação de caso, técnicas de reestruturação cognitiva, experimentos comportamentais e avaliação de progresso — processos que exigem interpretação clínica e tomada de decisão ética”, explica Welder.
Outro risco apontado pelo professor é a perpetuação de informações incorretas ou enviesadas. A forma como uma IA responde pode influenciar diretamente os pensamentos automáticos e as crenças centrais do indivíduo. Respostas excessivamente validadoras, sem questionamento ou sem incentivo à reflexão, podem reforçar distorções cognitivas. Por outro lado, falas demasiadamente diretas ou frias podem gerar sentimentos de rejeição. “Na TCC, a escolha de palavras e a postura terapêutica são intencionais e adaptadas ao paciente.”

Fabiana destaca que a Psicologia Junguiana também é baseada em critérios que vão além de conselhos e resolução de problemas ou ausência disso, uma vez que a IA pode impedir a pessoa de se questionar e reformular seus pensamentos. “Sob a perspectiva da Psicologia Analítica de Carl Gustav Jung, o trabalho terapêutico fundamenta-se no cuidado voltado à busca por realizações, sentido e propósito na existência. A dimensão espiritual e criativa do ser humano vai além da simples resolução de problemas, sendo experiências que nenhuma máquina pode proporcionar completamente. Ainda que a IA possa simular diálogos e oferecer recomendações, ela não consegue substituir a escuta ativa e o vínculo emocional genuíno que um terapeuta humano oferece.”
Em situações de crise, o risco é extremo
O uso da IA em contextos de ideação suicida ou traumas graves é considerado perigoso. “A IA não pode realizar intervenções de emergência, contatar familiares ou acionar serviços de saúde. Isso significa que pode haver perda de tempo precioso para salvar vidas”, afirma Welder.
Fabiana concorda. “A IA pode não possuir capacidade para identificar situações de urgência e encaminhar imediatamente para um atendimento humano. Para casos mais complexos de saúde mental, é imprescindível a intervenção de um terapeuta qualificado.”
Vieses e reforço de padrões disfuncionais
A IA pode perpetuar estereótipos e reforçar crenças nocivas. “Se uma pessoa com distorção cognitiva de ‘catastrofização’ descreve um evento e a IA responde de forma que reforça essa visão, há risco de consolidação do padrão”, explica Welder.
Fabiana observa que “há o risco de ocorrer a padronização de comportamentos prejudiciais, caso a IA não compreenda adequadamente o âmbito afetivo que está sendo comunicado.”
Sim, desde que com limites claros. “A IA pode ajudar a lembrar o usuário de técnicas de respiração, orientar sobre registros cognitivos ou oferecer informações confiáveis sobre sintomas. Mas isso deve ocorrer como complemento e não como substituto da terapia”, diz Welder.
Fabiana acrescenta: “A IA pode proporcionar algum alívio e apoio emocional momentâneo, mas não substitui um tratamento terapêutico que envolva um percurso de análise a médio e longo prazo.”

“A IA oferece frases de apoio, mas não substitui a avaliação baseada em evidências”, afirma Welder. “O desabafo com IA é pontual, reativo e limitado ao conteúdo apresentado pelo usuário. A terapia real envolve avaliação contínua, definição de objetivos e aplicação de técnicas.”
Fabiana aprofunda. “A psicoterapia proporciona um espaço para explorar o inconsciente. A leitura feita pela IA se baseia no discurso do paciente, mas a verdadeira essência de um processo terapêutico está na escuta analítica do que nem sempre é verbalizado.”
A IA responde ao que é digitado. Já o terapeuta humano escuta o que está nas entrelinhas, nos silêncios e nas emoções que não encontram palavras. É nesse espaço invisível que muitas vezes reside o cuidado mais profundo.

Há integração, resistência e colaboração. “Alguns profissionais usam IA como apoio para registro de dados e psicoeducação. Outros temem que ela banalize ou substitua o trabalho humano”, observa Welder.
Fabiana acredita que “os profissionais não se opõem à tecnologia, mas reconhecem que o apoio profissional continua sendo imprescindível. Elementos como interpretação de sutilezas e conexão humana são exclusividades que somente um terapeuta de carne e osso pode oferecer.”
A IA pode ser uma aliada, mas jamais uma substituta. Em tempos de avanço tecnológico, o cuidado com a saúde mental exige mais do que algoritmos — é preciso presença, escuta e humanidade. Como resume Fabiana: “A inteligência artificial trabalha com máquinas e dados conscientes. A psicoterapia, com o inconsciente e a alma humana.”


Fabiana Chaves é psicóloga clínica, CRP-06/191177, com especialização em Psicologia Junguiana, Terapia sistêmica junguiana de família e casal. Dedica-se à prática clínica em consultório, atendendo crianças, adolescentes e adultos.

Welder Rodrigo Vicente é psicólogo, supervisor do Núcleo de Apoio Psicopedagógico e Inclusão (NAPI) e professor no curso de Psicologia da Faseh (MG), instituição integrante do Ecossistema Ânima Educação.






