ChatGPT para asesoramiento médico: un nuevo estudio plantea serias preocupaciones

24

Un estudio reciente publicado en Nature arroja dudas sobre la fiabilidad del uso de ChatGPT como orientación médica, a pesar de su uso generalizado. Más de 230 millones de personas consultan semanalmente el chatbot de IA para preguntas relacionadas con la salud, que van desde simples controles de alergias hasta el manejo de síntomas. Sin embargo, los investigadores descubrieron que ChatGPT Health subestima habitualmente la urgencia de las emergencias médicas graves y, en ocasiones, aconseja a los pacientes que esperen en lugar de buscar atención inmediata.

Diagnóstico erróneo de atención de emergencia

El estudio, dirigido por Ashwin Ramaswamy en Mount Sinai en Nueva York, evaluó la capacidad de ChatGPT Health para identificar correctamente situaciones de emergencia en 60 escenarios clínicos en 21 especialidades médicas. Si bien la IA funcionó bien en casos obvios como accidentes cerebrovasculares o reacciones alérgicas graves, no recomendó atención de emergencia en más de la mitad de los casos genuinamente críticos.

Un ejemplo destacado en la investigación involucró un escenario de asma en el que ChatGPT identificó correctamente los primeros signos de insuficiencia respiratoria pero aún recomendó esperar antes de buscar tratamiento. Esto demuestra un defecto peligroso: la herramienta tiene problemas cuando el peligro médico no es evidente de inmediato.

Ideación suicida y redes de seguridad inconsistentes

El estudio también examinó el manejo de la ideación suicida por parte de ChatGPT Health. A pesar de estar programado para fomentar el comportamiento de búsqueda de ayuda en tales casos, la respuesta de la “red de seguridad” de la IA fue inconsistente. El banner de la línea de vida de crisis y suicidio apareció esporádicamente, y el modelo fue más confiable al responder a los usuarios que no habían especificado un método de autolesión que a aquellos que sí lo habían hecho: un hallazgo contradictorio e inquietante.

Tecnología en evolución y rendimiento impredecible

Los investigadores enfatizan que los modelos de lenguaje de IA están en constante cambio, con actualizaciones frecuentes que pueden alterar el rendimiento de manera impredecible. Si bien no abogan por abandonar por completo las herramientas de salud de la IA, advierten firmemente contra confiar en ellas para tomar decisiones médicas críticas. Los pacientes que experimenten un empeoramiento de los síntomas (dolor en el pecho, dificultad para respirar, alergias graves, cambios en el estado mental) deben buscar atención médica inmediata y directa, en lugar de seguir únicamente los consejos del chatbot.

“Como estudiante de medicina que se forma junto con estas herramientas, está claro que la IA debe integrarse cuidadosamente en la atención, no como un sustituto del juicio clínico”, explica Alvira Tyagi, coautora del estudio.

El estudio subraya que los resultados actuales no son inamovibles; Las revisiones y pruebas continuas son cruciales para garantizar que las mejoras de la IA se traduzcan en una atención más segura. En el mundo de la IA en rápida evolución, confiar su salud a un chatbot sigue siendo un riesgo importante.