ChatGPT voor medisch advies: nieuw onderzoek roept ernstige zorgen op

18

Een recente studie gepubliceerd in Nature doet twijfel rijzen over de betrouwbaarheid van het gebruik van ChatGPT voor medische begeleiding, ondanks het wijdverbreide gebruik ervan. Ruim 230 miljoen mensen raadplegen wekelijks de AI-chatbot voor gezondheidsgerelateerde vragen, variërend van eenvoudige allergiecontroles tot het beheersen van symptomen. Onderzoekers ontdekten echter dat ChatGPT Health routinematig de urgentie van ernstige medische noodgevallen onderschat, en patiënten soms adviseert te wachten in plaats van onmiddellijke hulp te zoeken.

Misdiagnose in de spoedeisende hulp

De studie, geleid door Ashwin Ramaswamy op Mount Sinai in New York, beoordeelde het vermogen van ChatGPT Health om noodsituaties correct te identificeren in 60 klinische scenario’s in 21 medische specialismen. Hoewel de AI goed presteerde in voor de hand liggende gevallen zoals een beroerte of ernstige allergische reacties, kon ** in meer dan de helft van de werkelijk kritieke gevallen geen spoedeisende zorg worden geadviseerd**.

Eén voorbeeld dat in het onderzoek naar voren kwam, betrof een astmascenario waarin ChatGPT de vroege tekenen van ademhalingsfalen correct identificeerde, maar nog steeds aanbeveelde te wachten alvorens behandeling te zoeken. Dit toont een gevaarlijke fout aan: het hulpmiddel worstelt wanneer medisch gevaar niet onmiddellijk duidelijk is.

Suïcidale gedachten en inconsistente vangnetten

De studie onderzocht ook de manier waarop ChatGPT Health omgaat met zelfmoordgedachten. Ondanks dat het geprogrammeerd was om in dergelijke gevallen hulpzoekend gedrag aan te moedigen, was de “vangnet”-reactie van de AI inconsistent. De levenslijnbanner voor zelfmoord en crisis verscheen sporadisch, en het model was meer betrouwbaar in het reageren op gebruikers die geen methode van zelfbeschadiging hadden gespecificeerd dan op degenen die dat wel hadden gedaan – een contra-intuïtieve en verontrustende bevinding.

Evoluerende technologie en onvoorspelbare prestaties

Onderzoekers benadrukken dat AI-taalmodellen voortdurend in beweging zijn, met frequente updates die de prestaties op onvoorspelbare wijze kunnen veranderen. Hoewel ze er geen voorstander van zijn om AI-gezondheidsinstrumenten volledig achterwege te laten, waarschuwen ze er wel sterk voor om er niet op te vertrouwen voor cruciale medische beslissingen. Patiënten die verergerende symptomen ervaren (pijn op de borst, kortademigheid, ernstige allergieën, veranderingen in de mentale toestand) moeten onmiddellijk medische hulp inroepen, in plaats van uitsluitend het advies van de chatbot te volgen.

“Als geneeskundestudent die naast deze hulpmiddelen traint, is het duidelijk dat AI doordacht in de zorg moet worden geïntegreerd, en niet als vervanging voor klinisch oordeel”, legt Alvira Tyagi, co-auteur van het onderzoek, uit.

De studie onderstreept dat de resultaten van vandaag niet in steen gebeiteld zijn; voortdurende evaluatie en testen zijn van cruciaal belang om ervoor te zorgen dat AI-verbeteringen zich vertalen in veiligere zorg. In de snel evoluerende wereld van AI blijft je gezondheid toevertrouwen aan een chatbot een aanzienlijk risico.