Недавнее исследование, опубликованное в журнале Nature, ставит под сомнение надежность использования ChatGPT для получения медицинских рекомендаций, несмотря на его широкое распространение. Более 230 миллионов человек еженедельно обращаются к этому ИИ-чатботу с вопросами, касающимися здоровья, от простых проверок на аллергию до управления симптомами. Однако исследователи обнаружили, что ChatGPT Health систематически недооценивает неотложность серьезных медицинских ситуаций, иногда советуя пациентам подождать, вместо немедленного обращения за помощью.
Неправильная Диагностика в Случаях Экстренной Помощи
Исследование, возглавляемое Эшвином Рамасуами из Маунт-Синай в Нью-Йорке, оценило способность ChatGPT Health правильно определять неотложные состояния в 60 клинических сценариях по 21 медицинской специальности. Хотя ИИ хорошо справлялся с очевидными случаями, такими как инсульт или тяжелые аллергические реакции, он не рекомендовал экстренную помощь более чем в половине действительно критических ситуаций.
Один из примеров, выделенный в исследовании, касался сценария с астмой, где ChatGPT правильно определил ранние признаки дыхательной недостаточности, но все равно рекомендовал подождать, прежде чем обращаться за лечением. Это демонстрирует опасный недостаток: инструмент испытывает трудности, когда медицинская опасность не очевидна сразу.
Суицидальные Намерения и Непоследовательные Меры Безопасности
Исследование также проанализировало реакцию ChatGPT Health на сообщения о суицидальных мыслях. Несмотря на то, что он запрограммирован на поощрение обращения за помощью в таких случаях, «сеть безопасности» ИИ работала непоследовательно. Баннер службы поддержки и кризисной помощи появлялся спорадически, и модель была более надежной в ответах пользователям, которые не указали способ причинения себе вреда, чем тем, кто указал — контринтуитивное и тревожное открытие.
Развивающиеся Технологии и Непредсказуемая Эффективность
Исследователи подчеркивают, что языковые модели ИИ постоянно меняются, с частыми обновлениями, которые могут непредсказуемо влиять на производительность. Хотя они не выступают за полный отказ от ИИ-инструментов в здравоохранении, они настоятельно предостерегают от полагания на них при принятии критических медицинских решений. Пациентам с ухудшающимися симптомами (боль в груди, одышка, тяжелая аллергия, изменения психического состояния) следует немедленно обратиться за медицинской помощью напрямую, а не полагаться исключительно на советы чатбота.
«Как будущий врач, работающий с этими инструментами, я вижу, что ИИ должен быть интегрирован в практику продуманно, а не в качестве замены клиническому суждению», — объясняет Альвира Тьяги, соавтор исследования.
Исследование подчеркивает, что сегодняшние результаты не являются окончательными; постоянный анализ и тестирование необходимы для обеспечения того, чтобы улучшения в ИИ приводили к более безопасной помощи. В быстро меняющемся мире ИИ доверять свое здоровье чатботу остается значительным риском.































