ChatGPT para aconselhamento médico: novo estudo levanta sérias preocupações

13

Um estudo recente publicado na Nature lança dúvidas sobre a confiabilidade do uso do ChatGPT para orientação médica, apesar de seu uso generalizado. Mais de 230 milhões de pessoas consultam semanalmente o chatbot de IA para questões relacionadas à saúde, desde simples verificações de alergia até o gerenciamento de sintomas. No entanto, os pesquisadores descobriram que O ChatGPT Health subestima rotineiramente a urgência de emergências médicas graves, às vezes aconselhando os pacientes a esperar em vez de procurar atendimento imediato.

Diagnóstico incorreto de atendimento de emergência

O estudo, liderado por Ashwin Ramaswamy no Mount Sinai, em Nova York, avaliou a capacidade do ChatGPT Health de identificar corretamente situações de emergência em 60 cenários clínicos em 21 especialidades médicas. Embora a IA tenha tido um bom desempenho em casos óbvios, como acidente vascular cerebral ou reações alérgicas graves, não aconselhou cuidados de emergência em mais de metade dos casos verdadeiramente críticos.

Um exemplo destacado na pesquisa envolveu um cenário de asma em que o ChatGPT identificou corretamente os primeiros sinais de insuficiência respiratória, mas ainda recomendou esperar antes de procurar tratamento. Isto demonstra uma falha perigosa: a ferramenta apresenta problemas quando o perigo médico não é imediatamente aparente.

Ideação suicida e redes de segurança inconsistentes

O estudo também examinou a forma como o ChatGPT Health lida com a ideação suicida. Apesar de ter sido programada para encorajar o comportamento de procura de ajuda em tais casos, a resposta da “rede de segurança” da IA ​​foi inconsistente. O banner da linha de vida de suicídio e crise apareceu esporadicamente, e o modelo foi mais confiável na resposta aos usuários que não especificaram um método de automutilação do que àqueles que o fizeram – uma descoberta contra-intuitiva e perturbadora.

Tecnologia em evolução e desempenho imprevisível

Os pesquisadores enfatizam que os modelos de linguagem de IA estão em constante fluxo, com atualizações frequentes que podem alterar o desempenho de forma imprevisível. Embora não defendam o abandono total das ferramentas de saúde de IA, eles alertam veementemente contra depender delas para decisões médicas críticas. Pacientes com agravamento dos sintomas (dor no peito, falta de ar, alergias graves, alterações do estado mental) devem procurar atendimento médico imediato diretamente, em vez de seguir apenas os conselhos do chatbot.

“Como um estudante de medicina que treina junto com essas ferramentas, fica claro que a IA deve ser cuidadosamente integrada aos cuidados, e não como um substituto para o julgamento clínico”, explica Alvira Tyagi, coautora do estudo.

O estudo sublinha que os resultados de hoje não são imutáveis; a revisão e os testes contínuos são cruciais para garantir que as melhorias da IA ​​se traduzam em cuidados mais seguros. No mundo em rápida evolução da IA, confiar a sua saúde a um chatbot continua a ser um risco significativo.