Documenti generati dall’intelligenza artificiale dichiarati ammissibili in tribunale, sfidando il privilegio legale

22

Un giudice distrettuale degli Stati Uniti ha stabilito che i documenti creati utilizzando uno strumento di intelligenza artificiale e successivamente condivisi con un avvocato sono ammissibili come prova in tribunale, anche se non rientrano nel tradizionale privilegio avvocato-cliente. Questa decisione evidenzia una crescente zona grigia giuridica che circonda l’uso dell’intelligenza artificiale nelle comunicazioni sensibili.

Dettagli del caso: accuse di frode e prove create dall’intelligenza artificiale

La sentenza è arrivata durante il procedimento preliminare nel caso contro il CEO di Beneficient Bradley Heppner, accusato di 150 milioni di dollari in titoli e frode telematica tra il 2018 e il 2021. Prima del suo arresto, Heppner ha utilizzato il chatbot Claude di Anthropic per generare 31 documenti, che sono stati successivamente sequestrati dagli investigatori.

I pubblici ministeri sostengono che questi documenti dovrebbero essere trattati come un “prodotto di lavoro” standard piuttosto che come una strategia legale privilegiata, citando le politiche di utilizzo dello strumento di intelligenza artificiale che non garantiscono la riservatezza. La difesa ha ribattuto che i documenti contenevano informazioni derivanti da conversazioni con i rappresentanti legali e dovevano quindi essere protetti. Hanno anche avvertito che l’utilizzo delle prove potrebbe creare un conflitto di interessi tra Heppner e i suoi avvocati, portando potenzialmente ad un errore giudiziario.

Implicazioni per la privacy e gli standard legali dell’IA

Il giudice Rakoff ha respinto le pretese di privilegio della difesa, ma ha riconosciuto la possibilità di un conflitto tra testimone e avvocato. Questo caso sottolinea una crescente tensione tra sviluppatori di intelligenza artificiale, difensori della privacy e quadri giuridici. La sentenza solleva interrogativi su come i tribunali gestiranno i materiali generati dall’intelligenza artificiale nei casi futuri.

Il dibattito più ampio: estendere il privilegio legale alle conversazioni tramite intelligenza artificiale?

Il dibattito va oltre questo caso specifico. Alcuni dirigenti dell’intelligenza artificiale, tra cui il CEO di OpenAI Sam Altman, hanno proposto di estendere le stesse protezioni legali offerte alle comunicazioni avvocato-cliente o terapista-paziente alle conversazioni con i chatbot basati sull’intelligenza artificiale. Altman sostiene che il crescente utilizzo personale di assistenti IA, compresi quelli che offrono terapie o consigli sanitari, richiede una rivalutazione dei privilegi di comunicazione.

Tuttavia, questa proposta si scontra con le cause legali in corso contro le società di intelligenza artificiale per violazione del copyright, problemi di sicurezza e problemi di salute mentale. Nonostante alcuni sviluppatori abbiano implementato misure per ridurre al minimo l’archiviazione della cronologia chat e consentire l’utilizzo in “incognito”, la raccolta estesa di dati rimane una preoccupazione.

Questa sentenza costituisce un precedente sul modo in cui le prove generate dall’intelligenza artificiale verranno trattate in tribunale, costringendo potenzialmente a una rivalutazione degli standard legali sulle comunicazioni digitali. Il conflitto tra preoccupazioni sulla privacy e responsabilità legale probabilmente si intensificherà man mano che l’intelligenza artificiale diventerà sempre più integrata nelle interazioni sensibili.