Dokumenty wygenerowane przez sztuczną inteligencję uznano za dopuszczalne w sądzie, co podważa przywileje prawne

16

Amerykański sędzia okręgowy orzekł, że dokumenty utworzone przy użyciu narzędzia sztucznej inteligencji, a następnie przekazane prawnikowi, mogą zostać przedstawione jako dowód w sądzie, nawet jeśli nie wchodzą w zakres tradycyjnej tajemnicy prawnika-klienta. W decyzji zwrócono uwagę na rosnącą niepewność prawną dotyczącą stosowania sztucznej inteligencji w poufnych komunikatach.

Szczegóły sprawy: zarzuty oszustwa i dowody wygenerowane przez sztuczną inteligencję

Orzeczenie zapadło w toku postępowania przygotowawczego w sprawie dyrektora generalnego Beneficient Bradleya Heppnera, który jest oskarżony o oszustwa związane z papierami wartościowymi oraz oszustwa drogą elektroniczną na kwotę 150 mln dolarów w latach 2018–2021. Przed aresztowaniem Heppner za pomocą chatbota Claude firmy Anthropic stworzył 31 dokumentów, które później zostały przejęte przez śledczych.

Prokuratorzy argumentują, że dokumenty należy traktować raczej jako zwykły „materiał roboczy”, a nie uprzywilejowaną strategię prawną, powołując się na własne zasady korzystania z narzędzia AI, które nie gwarantują poufności. Obrona odpowiedziała, że ​​dokumenty zawierały informacje uzyskane w drodze rozmów z przedstawicielami prawnymi i dlatego powinny być chronione. Ostrzegli także, że wykorzystanie materiału dowodowego może spowodować konflikt interesów pomiędzy Heppnerem a jego prawnikami, co może doprowadzić do unieważnienia procesu.

Konsekwencje dla standardów prawnych i prywatności AI

Sędzia Rakoff odrzucił twierdzenia obrony dotyczące przywileju, ale przyznał, że między świadkiem a adwokatem istnieje możliwość konfliktu. Sprawa podkreśla rosnące napięcie między twórcami sztucznej inteligencji, obrońcami prywatności i ramami prawnymi. Orzeczenie rodzi pytania o to, jak sądy będą postrzegać materiały wygenerowane przez sztuczną inteligencję w przyszłych sprawach.

Szersza dyskusja: rozszerzenie uprawnień prawnych na rozmowy z sztuczną inteligencją?

Dyskusja wykracza poza ten konkretny przypadek. Niektórzy dyrektorzy AI, w tym dyrektor generalny OpenAI Sam Altman, zaproponowali rozszerzenie tej samej ochrony prawnej, jaką zapewnia komunikacja prawnik-klient lub terapeuta-pacjent, na rozmowy z chatbotami AI. Altman argumentuje, że rosnące wykorzystanie asystentów AI do celów osobistych, w tym tych zapewniających terapię lub porady medyczne, wymaga ponownej oceny przywilejów komunikacyjnych.

Jednak propozycja stoi w obliczu toczących się procesów sądowych przeciwko firmom zajmującym się sztuczną inteligencją za naruszenie praw autorskich, nieprawidłowe działanie i problemy ze zdrowiem psychicznym. Chociaż niektórzy programiści wdrożyli środki mające na celu zminimalizowanie przechowywania historii czatów i umożliwienie korzystania z trybu „incognito”, problemem pozostaje gromadzenie obszernych danych.

Orzeczenie stanowi precedens w zakresie rozpatrywania w sądzie dowodów wygenerowanych przez sztuczną inteligencję, potencjalnie wymuszając ponowne przemyślenie standardów prawnych dotyczących komunikacji cyfrowej. Konflikt między obawami dotyczącymi prywatności a odpowiedzialnością prawną prawdopodobnie będzie się nasilać w miarę coraz większego włączania sztucznej inteligencji do wrażliwych interakcji.