Impacto da IA na saúde mental
A OpenAI anunciou em setembro mudanças no ChatGPT focadas na segurança e saúde mental dos usuários, incluindo controles parentais. Estas mudanças surgem em meio a preocupações crescientes sobre o impacto da IA na saúde mental, especialmente entre adolescentes, com relatos de automutilação e suicídio associados ao uso de chatbots.
A Harvard Business Review ressaltou que o aconselhamento terapêutico é uma das principais motivações para o uso de IA generativa. No Brasil, um em cada dez usuários utiliza a tecnologia para apoio psicológico, conforme pesquisa da Talk Inc.
Riscos do uso de chatbots na terapia
O uso de chatbots apresenta limitações significativas no campo psicológico. Rui Brandão, vice-presidente da Conexa, apontou que tais sistemas podem normalizar sinais de alerta e fornecer respostas inadequadas. Isso levanta preocupações sobre a falsa sensação de cuidado e o risco de atrasar terapia essencial.
Além disso, há riscos associados à exposição de informações pessoais quando os usuários desabafam com IA. Leandro Oliveira, dirigente da Humand, alerta para vazamentos de dados e uso indevido de informações pessoais. Ele recomenda assegurar o uso responsável da tecnologia, como limitações no compartilhamento de dados.
Uso seguro de IA
Oliveira sugere que a IA pode complementar, mas não substituir a terapia. Ele destacou que a IA ainda opera de maneira mecânica e pode passar as percepções do usuário, perdendo nuances que um terapeuta humano identificaria. Elementos como interação crítica com a IA podem ser utilizados para discutir padrões comportamentais com profissionais de saúde mental.
A OpenAI, em comunicado de agosto, declarou seu compromisso em desenvolver tecnologias que reconheçam sinais de sofrimento psicológico, orientando os usuários a buscar ajuda profissional em caso de intenções suicidas. Para evitar problemas sérios, Brandão recomenda a elaboração de protocolos claros e supervisão humana em casos críticos, enfatizando a necessidade da escuta profissional.