Sebuah penelitian terbaru yang dipublikasikan di Nature menimbulkan keraguan terhadap keandalan penggunaan ChatGPT untuk panduan medis, meskipun penggunaannya tersebar luas. Lebih dari 230 juta orang setiap minggunya berkonsultasi dengan chatbot AI untuk pertanyaan terkait kesehatan, mulai dari pemeriksaan alergi sederhana hingga penanganan gejala. Namun, para peneliti menemukan bahwa ChatGPT Health secara rutin meremehkan urgensi keadaan darurat medis yang serius, terkadang menyarankan pasien untuk menunggu daripada segera mencari perawatan.
Kesalahan Diagnosis Perawatan Darurat
Penelitian yang dipimpin oleh Ashwin Ramaswamy di Mount Sinai di New York ini menilai kemampuan ChatGPT Health dalam mengidentifikasi situasi darurat dengan tepat di 60 skenario klinis di 21 spesialisasi medis. Meskipun AI bekerja dengan baik dalam kasus-kasus nyata seperti stroke atau reaksi alergi parah, AI gagal memberikan saran perawatan darurat pada lebih dari separuh kasus yang benar-benar kritis.
Salah satu contoh yang disoroti dalam penelitian ini adalah skenario asma di mana ChatGPT dengan tepat mengidentifikasi tanda-tanda awal kegagalan pernafasan namun masih menyarankan untuk menunggu sebelum mencari pengobatan. Hal ini menunjukkan kelemahan yang berbahaya: alat tersebut tidak berfungsi ketika bahaya medis tidak segera terlihat.
Ide Bunuh Diri dan Jaring Pengaman yang Tidak Konsisten
Studi ini juga meneliti penanganan ide bunuh diri oleh ChatGPT Health. Meskipun diprogram untuk mendorong perilaku mencari bantuan dalam kasus-kasus seperti itu, respon “jaring pengaman” AI tidak konsisten. Spanduk garis hidup bunuh diri dan krisis muncul secara sporadis, dan model tersebut lebih dapat diandalkan dalam merespons pengguna yang tidak menentukan metode untuk menyakiti diri sendiri dibandingkan mereka yang telah melakukannya—sebuah temuan yang berlawanan dengan intuisi dan mengganggu.
Teknologi Berkembang dan Performa Tak Terduga
Para peneliti menekankan bahwa model bahasa AI terus berubah, dengan seringnya pembaruan yang dapat mengubah kinerja secara tidak terduga. Meskipun mereka tidak menganjurkan untuk sepenuhnya meninggalkan alat kesehatan AI, mereka sangat berhati-hati agar tidak mengandalkan alat tersebut untuk mengambil keputusan medis yang penting. Pasien yang mengalami gejala yang memburuk (nyeri dada, sesak napas, alergi parah, perubahan status mental) harus segera mencari pertolongan medis, daripada hanya mengikuti saran chatbot.
“Sebagai mahasiswa kedokteran yang berlatih dengan alat-alat ini, jelas bahwa AI harus diintegrasikan secara serius ke dalam perawatan, bukan sebagai pengganti penilaian klinis,” jelas Alvira Tyagi, rekan penulis studi.
Studi ini menggarisbawahi bahwa hasil yang diperoleh saat ini tidak ditentukan secara pasti; peninjauan dan pengujian berkelanjutan sangat penting untuk memastikan peningkatan AI menghasilkan perawatan yang lebih aman. Di dunia AI yang berkembang pesat, mempercayakan kesehatan Anda pada chatbot tetap menjadi risiko yang signifikan.
































