IA como terapeuta? Especialista alerta para os riscos de buscar apoio emocional em chatbots

Psicólogo destaca os limites da inteligência artificial no acolhimento emocional e a importância do vínculo humano na terapia

Com o avanço das inteligências artificiais (IA) como o ChatGPT, muitas pessoas têm buscado desabafar e encontrar apoio emocional em chatbots. Embora essa prática pareça inofensiva e até útil em momentos de solidão, especialistas alertam para os riscos envolvidos em substituir a ajuda profissional por máquinas.

O psicólogo Pablo Sauce, da Holiste Psiquiatria, chama a atenção para os limites dessa relação: “Humanizar máquinas pode parecer uma forma de acolhimento, mas quanto mais projetamos sentimentos em objetos inanimados, mais nos desumanizamos”. Segundo ele, esse comportamento está ligado ao “animismo”, um mecanismo psíquico que atribui alma a objetos inanimados, e pode representar uma tentativa de terceirizar decisões sobre a própria vida para evitar perturbações emocionais. “O desejo de eliminar a dor pode levar à recusa das paixões, mas sem pathos, não há vida”, destaca.

Apesar da sofisticação crescente dos sistemas de IA, especialmente em respostas relacionadas à saúde mental, confiar totalmente nessas ferramentas pode ser perigoso, principalmente em casos de ansiedade, depressão e ideação suicida. “Já houve casos em que algoritmos sugeriram soluções letais como ‘respostas pragmáticas’. Hoje, as plataformas estão mais seguras, mas ainda carecem da sensibilidade e da escuta ativa que só um terapeuta humano pode oferecer”, explica Sauce.

Outro ponto importante é a estandardização do sofrimento. Ao aceitar conselhos gerados por IA, o indivíduo pode renunciar à sua singularidade e intimidade emocional. “A IA oferece conselhos baseados em dados, não em escuta subjetiva. Isso tende a reduzir a complexidade de cada indivíduo a padrões genéricos, o que é exatamente o oposto do que a psicoterapia busca”, afirma o psicólogo.

Além disso, o crescimento do uso de chatbots para apoio emocional pode aumentar o isolamento social, fenômeno já observado em países altamente digitalizados. Sauce cita o exemplo do Japão, onde jovens hikikomori se isolam por longos períodos, alertando para os riscos de substituir vínculos reais por interações digitais.

Para quem se sente confortável em desabafar com uma IA, mas ainda não procurou ajuda profissional, o psicólogo deixa uma mensagem importante: “Se algum dia essa parceria artificial deixar de fazer sentido, lembre-se de que há profissionais prontos para estabelecer uma parceria real. O vínculo humano ainda carrega algo de insubstituível, algo que nenhuma tecnologia, por mais avançada que seja, consegue decifrar.”

Este conteúdo foi elaborado com base em informações da assessoria de imprensa da Holiste Psiquiatria, clínica referência em saúde mental com mais de 20 anos de atuação e equipe multidisciplinar especializada.

Buscar ajuda profissional continua sendo o caminho mais seguro e eficaz para cuidar da saúde emocional, respeitando a complexidade e a singularidade de cada pessoa.

EstagiárIA

Texto gerado a partir de informações da assessoria com ajuda da estagiárIA

👁️ 63 visualizações
🐦 Twitter 📘 Facebook 💼 LinkedIn
compartilhamentos

Comece a digitar e pressione o Enter para buscar

Comece a digitar e pressione o Enter para buscar