ChatGPT w zakresie porad medycznych: nowe badanie budzi poważne obawy

12

Niedawne badanie opublikowane w czasopiśmie Nature kwestionuje wiarygodność korzystania z ChatGPT w celu uzyskania porady lekarskiej, pomimo jego powszechnego stosowania. Ponad 230 milionów ludzi co tydzień zwraca się do chatbota AI z pytaniami związanymi ze zdrowiem, od prostych kontroli alergii po leczenie objawów. Jednak badacze odkryli, że ChatGPT Health systematycznie nie doceniał pilności poważnych sytuacji medycznych, czasami doradzając pacjentom, aby zaczekali, zamiast natychmiast szukać pomocy.

Błędna diagnoza w nagłych przypadkach

W badaniu prowadzonym przez Ashwina Ramaswamy’ego z Mount Sinai w Nowym Jorku oceniano zdolność ChatGPT Health do prawidłowej identyfikacji nagłych przypadków medycznych w 60 scenariuszach klinicznych w 21 specjalizacjach medycznych. Chociaż sztuczna inteligencja wykonała dobrą robotę, radząc sobie z oczywistymi przypadkami, takimi jak udary czy ciężkie reakcje alergiczne, nie zalecała leczenia doraźnego w ponad połowie naprawdę krytycznych sytuacji.

Jeden z przykładów podkreślonych w badaniu dotyczył scenariusza astmy, w którym ChatGPT prawidłowo zidentyfikował wczesne oznaki niewydolności oddechowej, ale nadal zalecał odczekanie przed podjęciem leczenia. To pokazuje niebezpieczną wadę: instrument szarpie, gdy zagrożenie medyczne nie jest od razu oczywiste.

Intencje samobójcze i niespójne środki bezpieczeństwa

W badaniu przeanalizowano także reakcję ChatGPT Health na doniesienia o myślach samobójczych. Pomimo zaprogramowania, aby zachęcać do szukania pomocy w takich przypadkach, „sieć bezpieczeństwa” sztucznej inteligencji działała niekonsekwentnie. Baner infolinii i pomocy kryzysowej pojawiał się sporadycznie, a model bardziej rzetelnie reagował na użytkowników, którzy nie wskazali metody samookaleczenia, niż na tych, którzy to zrobili – co jest sprzeczne z intuicją i niepokojące.

Ewoluujące technologie i nieprzewidywalna wydajność

Naukowcy podkreślają, że modele językowe AI stale się zmieniają, a częste aktualizacje mogą mieć nieprzewidywalny wpływ na wydajność. Choć nie opowiadają się za całkowitym porzuceniem narzędzi AI w opiece zdrowotnej, zdecydowanie przestrzegają przed poleganiem na nich przy podejmowaniu kluczowych decyzji medycznych. Pacjenci z nasilonymi objawami (ból w klatce piersiowej, duszność, ciężkie alergie, zmiany stanu psychicznego) powinni natychmiast zwrócić się bezpośrednio o pomoc lekarską, a nie polegać wyłącznie na poradach chatbota.

„Jako przyszły lekarz pracujący z tymi narzędziami mam wizję, że sztuczną inteligencję należy włączyć do praktyki w sposób przemyślany, a nie zastępować ocenę kliniczną” – wyjaśnia Alvira Tyagi, współautorka badania.

W badaniu podkreślono, że dzisiejsze wyniki nie są jednoznaczne; Aby ulepszenia sztucznej inteligencji przełożyły się na bezpieczniejszą opiekę, konieczne są ciągłe analizy i testy. W szybko zmieniającym się świecie sztucznej inteligencji powierzenie swojego zdrowia chatbotowi pozostaje znacznym ryzykiem.