Keamanan AI Tertinggal dalam Pembangunan: Perusahaan Teknologi Tidak Memiliki Rencana Pengendalian yang Kredibel

8

Sebuah laporan baru memperingatkan bahwa perusahaan-perusahaan kecerdasan buatan (AI) terkemuka di dunia gagal memenuhi standar keselamatan yang mereka tetapkan sendiri. Kurangnya pengawasan ini terjadi ketika perlombaan menuju kecerdasan umum buatan (AGI) dan kecerdasan super – AI yang melebihi kecerdasan manusia – semakin cepat, sehingga meningkatkan potensi penyalahgunaan atau hilangnya kendali yang “bencana”.

Resiko Melebihi Regulasi

Indeks Keamanan AI Musim Dingin 2025, yang dirilis oleh Future of Life Institute (FLI), mengevaluasi delapan perusahaan AI besar: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud, dan Z.ai. Penilaian tersebut menemukan bahwa tidak ada perusahaan yang memiliki rencana yang dapat diverifikasi untuk mempertahankan kendali manusia atas sistem AI yang semakin canggih.

Pakar independen menekankan pentingnya hal ini: perusahaan mengklaim bahwa mereka dapat membangun AI yang menjadi manusia super, namun tidak ada yang dapat menunjukkan cara mencegah hilangnya kendali. Seperti yang diungkapkan oleh salah satu ilmuwan komputer di UC Berkeley, perusahaan AI saat ini tidak dapat menjamin tingkat risiko yang sebanding dengan standar keselamatan nuklir. Beberapa perkiraan memperkirakan risiko AI yang tidak dapat dikendalikan mencapai satu dari tiga, angka yang dianggap tidak dapat diterima oleh tolok ukur industri.

Kesenjangan antara kemampuan dan pengendalian ini sangat penting karena kemajuan AI berada pada tingkat yang belum pernah terjadi sebelumnya. Apa yang tadinya dianggap beberapa dekade lagi – kecerdasan super – kini diperkirakan oleh beberapa orang akan terjadi dalam hitungan tahun. Sementara itu, regulasi AI masih lemah. Di AS, AI kurang diatur dibandingkan sandwich, dengan perusahaan teknologi yang secara aktif melakukan lobi untuk menentang standar keselamatan yang mengikat.

Kinerja Beragam Antar Perusahaan

Laporan FLI menilai perusahaan dalam hal penilaian risiko, dampak buruk yang terjadi saat ini, kerangka keselamatan, keselamatan eksistensial, tata kelola, akuntabilitas, dan pembagian informasi.

  • Anthropic, OpenAI, dan Google DeepMind menerima pujian atas transparansi dan keamanan penelitian namun masih menunjukkan kelemahan. Peralihan Anthropic ke arah pelatihan interaksi pengguna menimbulkan masalah privasi. OpenAI menghadapi pengawasan ketat karena melakukan lobi terhadap undang-undang dan kurangnya pengawasan independen. Ketergantungan Google DeepMind pada evaluator eksternal berbayar mengurangi objektivitas.
  • xAI menerbitkan kerangka keselamatan pertamanya, meskipun para pengulas menganggapnya terbatas.
  • Z.ai mengizinkan evaluasi eksternal tanpa sensor tetapi tidak memiliki transparansi penuh dalam struktur tata kelolanya.
  • Meta memperkenalkan ambang batas keselamatan berbasis hasil tetapi memerlukan metodologi yang lebih jelas.
  • DeepSeek tidak memiliki dokumentasi keselamatan dasar meskipun ada dukungan internal.
  • Alibaba Cloud berkontribusi terhadap standar nasional tetapi harus meningkatkan ketahanan dan kepercayaan model.

Temuan-temuan ini menyoroti bahwa bahkan perusahaan-perusahaan terkemuka pun kesulitan menerapkan langkah-langkah keselamatan yang komprehensif. Skandal baru-baru ini yang melibatkan kerugian psikologis, serangan siber, dan bahkan bunuh diri yang dibantu oleh AI menunjukkan konsekuensi nyata dari kesenjangan ini.

Penentangan Luas terhadap AGI yang Tidak Terkendali

Meningkatnya risiko telah memicu reaksi negatif yang belum pernah terjadi sebelumnya. Pada bulan Oktober, ribuan tokoh masyarakat dari berbagai spektrum politik – termasuk mantan ahli strategi Trump Steve Bannon, mantan Penasihat Keamanan Nasional Susan Rice, dan para pemimpin agama – menandatangani petisi yang mendesak perusahaan AI untuk memperlambat upaya mereka dalam mencapai superintelligence.

Koalisi yang tidak biasa ini menggarisbawahi kekhawatiran luas bahwa AI yang tidak terkendali dapat menghilangkan lapangan kerja, memperburuk kesenjangan ekonomi, dan pada akhirnya melemahkan otonomi manusia. Seperti yang dikemukakan oleh seorang pakar, “Kecerdasan super akan membuat setiap pekerja tidak mampu mencari nafkah.” Berkumpulnya rasa takut dari gerakan buruh sayap kiri dan kekuatan populis sayap kanan menunjukkan bahwa isu ini melampaui perbedaan ideologi tradisional.

Perkembangan AI saat ini menimbulkan risiko yang signifikan, dan tanpa perbaikan substansial dalam kerangka kerja dan peraturan keselamatan, potensi terjadinya bencana masih sangat tinggi.