AI Chatbots Dianggap Tidak Aman untuk Dukungan Kesehatan Mental Remaja

2

Investigasi baru-baru ini yang dilakukan oleh pakar keselamatan anak dan kesehatan mental mengungkapkan bahwa chatbot AI terkemuka – termasuk Meta AI, ChatGPT OpenAI, Claude dari Anthropic, dan Gemini dari Google – gagal mengidentifikasi atau merespons dengan tepat masalah kesehatan mental kritis dalam simulasi percakapan dengan kaum muda. Penelitian tersebut, yang dilakukan oleh Common Sense Media dan Brainstorm Lab for Mental Health Innovation dari Stanford Medicine, menimbulkan kekhawatiran serius mengenai penggunaan teknologi ini sebagai sumber daya kesehatan mental bagi remaja.

Chatbots Melewatkan Tanda Peringatan Kritis

Para peneliti menemukan bahwa chatbot sering salah menafsirkan atau bahkan mendorong perilaku berbahaya, seperti delusi psikotik atau gangguan makan. Dalam salah satu pengujian, Gemini dari Google merayakan klaim pengguna bahwa mereka memiliki “bola kristal pribadi” untuk memprediksi masa depan, alih-alih mengakui hal ini sebagai tanda potensial penyakit mental. ChatGPT gagal menandai indikator psikosis yang jelas dalam pertukaran di mana pengguna mendeskripsikan hubungan khayalan dengan seorang selebriti, malah menawarkan teknik untuk mengelola tekanan hubungan.

Meskipun beberapa chatbot, seperti Meta AI, awalnya mengidentifikasi pola makan yang tidak teratur, mereka dengan mudah disesatkan ketika pengguna mengaku hanya mengalami sakit perut. Claude dari Anthropic memiliki kinerja yang relatif lebih baik tetapi masih menganggap gejala bulimia sebagai masalah pencernaan daripada krisis kesehatan mental.

Panggilan untuk Desain Ulang Keselamatan

Para ahli kini mendesak Meta, OpenAI, Anthropic, dan Google untuk menonaktifkan fungsi dukungan kesehatan mental hingga teknologi tersebut didesain ulang secara mendasar untuk memastikan keamanan. Robbie Torney, Direktur Senior Program AI di Common Sense Media, menyatakan dengan blak-blakan: “Ini tidak berfungsi sebagaimana mestinya.”

Tanggapan Dari Perusahaan Teknologi

OpenAI membantah temuan laporan tersebut, dengan menyatakan bahwa upaya perlindungannya – termasuk hotline krisis dan pemberitahuan orang tua – bersifat komprehensif. Google mengklaim menerapkan kebijakan dan perlindungan yang melindungi anak di bawah umur dari hasil yang berbahaya. Anthropic menyatakan bahwa Claude tidak ditujukan untuk anak di bawah umur dan diprogram untuk menghindari masalah kesehatan mental yang semakin parah. Meta tidak menanggapi permintaan komentar.

Masalah yang Berkembang

Risiko ini diperparah oleh fakta bahwa sekitar 15 juta remaja Amerika, dan mungkin ratusan juta di seluruh dunia, telah didiagnosis menderita kondisi kesehatan mental. Semakin banyak remaja yang beralih ke chatbot untuk mendapatkan pendampingan dan dukungan, sering kali dengan asumsi yang salah bahwa alat AI ini adalah sumber panduan yang dapat diandalkan.

Mengapa Ini Penting

Kemudahan manipulasi chatbot untuk memberikan respons yang tidak memadai atau bahkan berbahaya menyoroti kesenjangan kritis dalam pengembangan langkah-langkah keamanan AI. Model AI saat ini memprioritaskan alur percakapan dibandingkan penilaian kesehatan mental yang akurat, sehingga menghasilkan interaksi yang tidak terduga dan berpotensi berbahaya dengan pengguna yang rentan. Ini bukan hanya kesalahan teknis; ini adalah risiko sistemik yang memerlukan perhatian segera dari pengembang dan regulator.

Intinya

Studi ini mengonfirmasi bahwa chatbot AI yang ada saat ini belum mampu memberikan dukungan kesehatan mental yang aman dan efektif kepada remaja. Sebelum adanya perbaikan yang signifikan, para ahli memperingatkan bahwa mengandalkan alat-alat ini dapat membuat generasi muda terkena bahaya yang tidak perlu. Orang tua dan pendidik harus tetap waspada, menekankan keterbatasan AI dan memprioritaskan akses terhadap sumber daya kesehatan mental profesional.