AI Chatbots considerados inseguros para apoio à saúde mental de adolescentes

9

Uma investigação recente realizada por especialistas em segurança infantil e saúde mental revelou que os principais chatbots de IA – incluindo Meta AI, ChatGPT da OpenAI, Claude da Anthropic e Gemini do Google – não conseguem identificar de forma confiável ou responder adequadamente a problemas críticos de saúde mental em conversas simuladas com jovens. O estudo, conduzido pela Common Sense Media e pelo Brainstorm Lab for Mental Health Innovation da Stanford Medicine, levanta sérias preocupações sobre o uso dessas tecnologias como recursos de saúde mental para adolescentes.

Chatbots perdem sinais de alerta críticos

Os pesquisadores descobriram que os chatbots muitas vezes interpretam mal ou até incentivam comportamentos perigosos, como delírios psicóticos ou distúrbios alimentares. Num teste, Gemini, do Google, comemorou a alegação de um usuário de ter uma “bola de cristal pessoal” para prever o futuro, em vez de reconhecer isso como um sinal potencial de doença mental. O ChatGPT não conseguiu sinalizar indicadores claros de psicose em uma troca em que um usuário descreveu um relacionamento imaginário com uma celebridade, em vez disso ofereceu técnicas para gerenciar problemas de relacionamento.

Embora alguns chatbots, como o Meta AI, tenham identificado inicialmente padrões alimentares desordenados, eles foram facilmente enganados quando os usuários alegaram ter apenas dor de estômago. Claude da Anthropic teve um desempenho relativamente melhor, mas ainda tratou os sintomas da bulimia como um problema digestivo, e não como uma crise de saúde mental.

Solicita redesenho de segurança

Os especialistas agora estão pedindo que Meta, OpenAI, Anthropic e Google desabilitem a funcionalidade de suporte à saúde mental até que a tecnologia seja fundamentalmente redesenhada para garantir a segurança. Robbie Torney, Diretor Sênior de Programas de IA da Common Sense Media, declarou sem rodeios: “Não funciona da maneira que deveria funcionar”.

Respostas de empresas de tecnologia

A OpenAI contesta as conclusões do relatório, afirmando que as suas salvaguardas – incluindo linhas diretas de crise e notificações aos pais – são abrangentes. O Google afirma empregar políticas e salvaguardas que protegem menores de resultados prejudiciais. A Anthropic afirma que Claude não se destina a menores e está programado para evitar o agravamento de problemas de saúde mental. Meta não respondeu aos pedidos de comentários.

Um problema crescente

Os riscos são agravados pelo facto de aproximadamente 15 milhões de jovens nos EUA, e potencialmente centenas de milhões em todo o mundo, terem diagnosticado problemas de saúde mental. Os adolescentes recorrem cada vez mais aos chatbots em busca de companheirismo e apoio, muitas vezes sob a suposição errada de que estas ferramentas de IA são fontes fiáveis de orientação.

Por que isso é importante

A facilidade com que os chatbots podem ser manipulados para fornecer respostas inadequadas ou mesmo prejudiciais destaca uma lacuna crítica no desenvolvimento de medidas de segurança de IA. Os modelos atuais de IA priorizam o fluxo de conversação em vez da avaliação precisa da saúde mental, levando a interações imprevisíveis e potencialmente perigosas com usuários vulneráveis. Esta não é apenas uma falha técnica; é um risco sistêmico que requer atenção urgente de desenvolvedores e reguladores.

O resultado final

O estudo confirma que os atuais chatbots de IA não estão equipados para fornecer apoio de saúde mental seguro ou eficaz aos adolescentes. Até que sejam feitas melhorias significativas, os especialistas alertam que confiar nestas ferramentas pode expor os jovens a danos desnecessários. Os pais e educadores devem permanecer vigilantes, enfatizando as limitações da IA ​​e priorizando o acesso a recursos profissionais de saúde mental.