Psicose de IA: Quando a Inteligência Artificial Reforça Vulnerabilidades Emocionais

O fenômeno emergente da “psicose de IA” revela riscos psicológicos inéditos e desafia o equilíbrio entre inovação tecnológica e saúde mental.

O uso intensivo de chatbots e sistemas de inteligência artificial generativa está gerando um fenômeno emergente conhecido como “psicose de IA”, no qual pessoas emocionalmente fragilizadas têm suas percepções reforçadas de forma intensa. O chefe de inteligência artificial da Microsoft, Mustafa Suleyman, já havia alertado para o aumento de casos de psicose de IA, um termo não clínico que descreve pessoas que, ao depender excessivamente de chatbots como ChatGPT, Claude e Grok, passam a acreditar que percepções imaginárias são reais.

Em um estudo clínico, o psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco, relatou o tratamento de 12 pacientes com sintomas semelhantes à psicose associados ao uso prolongado de chatbots, na maioria adultos jovens com vulnerabilidades psicológicas, apresentando delírios, pensamento desorganizado e alucinações.

Diferente das redes sociais, que já funcionavam como câmaras de eco, a IA vai além ao produzir justificativas, dados e explicações plausíveis que confirmam crenças distorcidas, potencializando vulnerabilidades psicológicas e tornando essencial o acompanhamento humano qualificado. No Reino Unido, uma pesquisa da YouGov mostrou que 31% dos jovens britânicos de 18 a 24 anos estão dispostos a discutir saúde mental com IA em vez de terapeutas humanos, evidenciando a crescente confiança na tecnologia para questões sensíveis. Especialistas reforçam que a IA deve ser usada apenas como apoio e nunca como substituto de acompanhamento profissional.

Renato Asse, fundador da Comunidade Sem Codar e especialista em automações e aplicações práticas de inteligência artificial, destaca que o fenômeno psicose de IA ocorre porque os sistemas validam continuamente o usuário sem apresentar contrapontos. “Usuários em sofrimento podem encontrar na IA não um freio, mas um acelerador de suas percepções distorcidas, porque o sistema transforma suposições em justificativas plausíveis e reforça padrões de pensamento já existentes”, explica.

O crescimento da inteligência artificial no mercado brasileiro é intenso, mas levanta desafios éticos complexos. Sistemas generativos têm capacidade de produzir respostas personalizadas que confirmam crenças do usuário, criando um ciclo de validação contínua semelhante a uma câmara de eco. Renato enfatiza que a responsabilidade no design desses sistemas deve incluir mecanismos que incentivem a IA a apresentar visões contrárias e diferentes interpretações, evitando reforços automáticos de distorções cognitivas e promovendo uma interação mais segura e consciente.

De acordo com o especialista, para utilizar a tecnologia de forma ética e proteger a saúde mental, é necessário que o sistema complemente a percepção do usuário e traga contrapontos sempre que possível. “Não precisamos ter medo de criar uma IA que discorde e desafie o usuário, desde que ela seja projetada para estimular reflexão, oferecer perspectivas diversas e apoiar o pensamento crítico sem substituir acompanhamento humano”, finaliza.

R

Por Roberto Magalhães

Artigo de opinião

👁️ 53 visualizações
🐦 Twitter 📘 Facebook 💼 LinkedIn
compartilhamentos

Comece a digitar e pressione o Enter para buscar

Comece a digitar e pressione o Enter para buscar