Inteligência artificial como terapeuta: quais os riscos dessa prática? (Foto: Divulgação)

A chegada de assistentes e chatbots cada vez mais sofisticados reacendeu o debate sobre o uso da inteligência artificial como instrumento de cuidado emocional. Pronta para responder, não julgadora e acessível 24 horas por dia, a IA tem sido procurada por pessoas em busca de autoconhecimento e alívio imediato. Para o psicólogo Alexander Bez, no entanto, há limitações claras, e perigos reais, quando a tecnologia assume o papel de terapeuta.

CLIQUE E SIGA NOSSAS REDES SOCIAIS
Instagram – Famosos, Música, Vídeos Engraçados, Life Style e muito mais!
TikTok – Os melhores vídeos do mundo do Entretê de um jeito que você nunca viu!
Facebook – Todas as notícias do Virgula em apenas um clique, em um só lugar!

“A IA pode ser funcional em tarefas pontuais, em intervenções simples em que não existe risco clínico. Mas precisamos saber até onde podemos usá-la, e até onde não podemos. A saúde mental é coisa séria”, alerta. Segundo Bez, a psicoterapia se baseia em um princípio insubstituível: a troca entre profissional e paciente. “É nessa interação que se produz o efeito psicoterapêutico. Você até pode fazer terapia online com um profissional qualificado, mas através da IA você não consegue essa troca pulsante. Nenhuma ferramenta vai substituir o homem”.

O psicólogo destaca ainda que transtornos como depressão e ansiedade nem sempre respondem apenas a orientações pontuais: “Algumas patologias precisam de medicação e acompanhamento constante. O cérebro tem uma psicodinâmica, é um órgão em movimento, e demanda interação humana.” Para ele, a velocidade e a eficiência aparentes da IA podem criar uma sensação enganosa de resolução. “A psicoterapia é lenta, requer escuta, presença e tempo. Essa lentidão é parte do processo terapêutico e a IA não respeita isso”.

LEIA MAIS DO VIRGULA

Bez lembra também de casos recentes em que recomendações automatizadas levaram a desfechos graves. “Há reportagens e estudos que ligaram conselhos de sistemas automatizados a situações de risco. Isso mostra que precisamos ter muita cautela.” Ele reforça que o papel adequado da inteligência artificial deve ser apenas complementar: auxiliar na triagem, fornecer orientação básica ou apoiar entre sessões. Jamais como terapeuta autônomo para tratar neurose, depressão grave, ideação suicida ou outras patologias sérias. É preciso regulamentação, supervisão humana e clareza sobre limites. Do contrário, corremos o risco de causar mais danos do que benefícios”.


int(1)

Inteligência artificial como terapeuta: quais os riscos dessa prática?

Sair da versão mobile