ChatGPT per consulenza medica: un nuovo studio solleva serie preoccupazioni

10

Un recente studio pubblicato su Nature mette in dubbio l’affidabilità dell’utilizzo di ChatGPT per la guida medica, nonostante il suo utilizzo diffuso. Più di 230 milioni di persone consultano settimanalmente il chatbot AI per domande relative alla salute, che vanno dai semplici controlli delle allergie alla gestione dei sintomi. Tuttavia, i ricercatori hanno scoperto che ChatGPT Health sottovaluta abitualmente l’urgenza di gravi emergenze mediche, a volte consigliando ai pazienti di aspettare invece di cercare cure immediate.

Diagnosi errata del pronto soccorso

Lo studio, condotto da Ashwin Ramaswamy al Mount Sinai a New York, ha valutato la capacità di ChatGPT Health di identificare correttamente le situazioni di emergenza in 60 scenari clinici in 21 specialità mediche. Sebbene l’intelligenza artificiale abbia funzionato bene in casi evidenti come ictus o gravi reazioni allergiche, non è riuscita a consigliare le cure di emergenza in oltre la metà dei casi veramente critici.

Un esempio evidenziato nella ricerca riguardava uno scenario di asma in cui ChatGPT identificava correttamente i primi segni di insufficienza respiratoria ma comunque raccomandava di attendere prima di cercare un trattamento. Ciò dimostra un difetto pericoloso: lo strumento fatica quando il pericolo medico non è immediatamente evidente.

Ideazione suicidaria e reti di sicurezza incoerenti

Lo studio ha anche esaminato la gestione dell’idea suicidaria da parte di ChatGPT Health. Nonostante fosse programmata per incoraggiare comportamenti di ricerca di aiuto in questi casi, la risposta della “rete di sicurezza” dell’IA era incoerente. Il banner relativo al suicidio e alla crisi appariva sporadicamente e il modello era più affidabile nel rispondere agli utenti che non avevano specificato un metodo di autolesionismo rispetto a quelli che lo avevano fatto: una scoperta controintuitiva e inquietante.

Tecnologia in evoluzione e prestazioni imprevedibili

I ricercatori sottolineano che i modelli linguistici dell’intelligenza artificiale sono in costante cambiamento, con aggiornamenti frequenti che possono alterare le prestazioni in modo imprevedibile. Sebbene non sostengano l’abbandono completo degli strumenti sanitari basati sull’intelligenza artificiale, mettono fortemente in guardia dal fare affidamento su di essi per decisioni mediche critiche. I pazienti che avvertono un peggioramento dei sintomi (dolore toracico, mancanza di respiro, allergie gravi, cambiamenti dello stato mentale) dovrebbero rivolgersi direttamente al medico immediato, anziché seguire esclusivamente i consigli del chatbot.

“Come studente di medicina che si forma insieme a questi strumenti, è chiaro che l’intelligenza artificiale deve essere integrata attentamente nelle cure, non come sostituto del giudizio clinico”, spiega Alvira Tyagi, coautrice dello studio.

Lo studio sottolinea che i risultati di oggi non sono scolpiti nella pietra; revisioni e test continui sono fondamentali per garantire che i miglioramenti dell’intelligenza artificiale si traducano in cure più sicure. Nel mondo in rapida evoluzione dell’intelligenza artificiale, affidare la propria salute a un chatbot rimane un rischio significativo.