Dokumen Buatan AI Diputuskan Dapat Diterima di Pengadilan, Menantang Hak Istimewa Hukum

11

Hakim Distrik AS telah memutuskan bahwa dokumen yang dibuat menggunakan alat kecerdasan buatan dan kemudian dibagikan kepada pengacara dapat diterima sebagai bukti di pengadilan, meskipun dokumen tersebut berada di luar hak istimewa pengacara-klien. Keputusan ini menyoroti semakin berkembangnya wilayah abu-abu hukum seputar penggunaan AI dalam komunikasi sensitif.

Detail Kasus: Tuduhan Penipuan dan Bukti Buatan AI

Keputusan tersebut diambil selama proses pendahuluan dalam kasus terhadap CEO Beneficient Bradley Heppner, yang dituduh melakukan penipuan sekuritas dan kawat senilai $150 juta antara tahun 2018 dan 2021. Sebelum penangkapannya, Heppner menggunakan chatbot Claude Anthropic untuk menghasilkan 31 dokumen, yang kemudian disita oleh penyelidik.

Jaksa berpendapat bahwa dokumen-dokumen ini harus diperlakukan sebagai “produk kerja” standar dan bukan strategi hukum yang diistimewakan, dengan alasan kebijakan penggunaan alat AI itu sendiri yang tidak menjamin kerahasiaan. Tim pembela membantah bahwa dokumen tersebut berisi informasi yang diperoleh dari percakapan dengan perwakilan hukum dan oleh karena itu, harus dilindungi. Mereka juga memperingatkan bahwa penggunaan bukti dapat menimbulkan konflik kepentingan antara Heppner dan pengacaranya, yang berpotensi menyebabkan pembatalan persidangan.

Implikasi terhadap Privasi AI dan Standar Hukum

Hakim Rakoff menolak klaim hak istimewa pembela namun mengakui kemungkinan adanya konflik antara saksi dan pengacara. Kasus ini menggarisbawahi meningkatnya ketegangan antara pengembang AI, pendukung privasi, dan kerangka hukum. Putusan ini menimbulkan pertanyaan tentang bagaimana pengadilan akan menangani materi yang dihasilkan AI dalam kasus-kasus di masa depan.

Perdebatan yang Lebih Luas: Memperluas Hak Istimewa Hukum pada Percakapan AI?

Perdebatan ini melampaui kasus khusus ini. Beberapa eksekutif AI, termasuk CEO OpenAI Sam Altman, telah mengusulkan untuk memperluas perlindungan hukum yang sama yang diberikan pada komunikasi pengacara-klien atau terapis-pasien hingga percakapan dengan chatbot AI. Altman berpendapat bahwa meningkatnya penggunaan asisten AI untuk keperluan pribadi—termasuk mereka yang menawarkan terapi atau nasihat kesehatan—memerlukan evaluasi ulang terhadap hak istimewa komunikasi.

Namun, usulan ini bertentangan dengan tuntutan hukum yang sedang berlangsung terhadap perusahaan AI karena pelanggaran hak cipta, kegagalan keselamatan, dan masalah kesehatan mental. Meskipun beberapa pengembang menerapkan langkah-langkah untuk meminimalkan penyimpanan riwayat obrolan dan mengizinkan penggunaan “penyamaran”, pengumpulan data yang ekstensif masih menjadi perhatian.

Keputusan ini menjadi preseden mengenai bagaimana bukti yang dihasilkan AI akan diproses di pengadilan, sehingga berpotensi memaksa evaluasi ulang standar hukum seputar komunikasi digital. Konflik antara masalah privasi dan akuntabilitas hukum kemungkinan akan meningkat seiring dengan semakin terintegrasinya AI ke dalam interaksi sensitif.