Een Amerikaanse districtsrechter heeft geoordeeld dat documenten die zijn gemaakt met behulp van een hulpmiddel voor kunstmatige intelligentie en vervolgens zijn gedeeld met een advocaat, toelaatbaar zijn als bewijsmateriaal in de rechtbank, zelfs als ze buiten het traditionele advocaat-cliënt privilege vallen. Dit besluit benadrukt een groeiend juridisch grijs gebied rond het gebruik van AI in gevoelige communicatie.
Zaakdetails: fraudeaanklachten en door AI gecreëerd bewijs
De uitspraak kwam tijdens een voorlopige procedure in de zaak tegen Bradley Heppner, CEO van Beneficient, die tussen 2018 en 2021 wordt beschuldigd van 150 miljoen dollar aan effecten- en telebankfraude. Vóór zijn arrestatie gebruikte Heppner de Claude-chatbot van Anthropic om 31 documenten te genereren, die later door onderzoekers in beslag werden genomen.
Aanklagers beweren dat deze documenten moeten worden behandeld als een standaard “werkproduct” en niet als een bevoorrechte juridische strategie, daarbij verwijzend naar het eigen gebruiksbeleid van de AI-tool, dat de vertrouwelijkheid niet garandeert. Het verdedigingsteam wierp tegen dat de documenten informatie bevatten die was afgeleid van gesprekken met wettelijke vertegenwoordigers en daarom beschermd moesten worden. Ze waarschuwden ook dat het gebruik van het bewijsmateriaal een belangenconflict zou kunnen veroorzaken tussen Heppner en zijn advocaten, wat mogelijk tot een nietig proces zou kunnen leiden.
Implicaties voor AI-privacy en wettelijke normen
Rechter Rakoff verwierp de aanspraken op privilege van de verdediging, maar erkende de mogelijkheid van een conflict tussen getuigen en pleitbezorgers. Deze zaak onderstreept een toenemende spanning tussen AI-ontwikkelaars, privacyvoorvechters en wettelijke kaders. De uitspraak roept vragen op over hoe rechtbanken in toekomstige zaken met AI-gegenereerd materiaal zullen omgaan.
Het bredere debat: juridische privileges uitbreiden naar AI-gesprekken?
Het debat reikt verder dan dit specifieke geval. Sommige AI-managers, waaronder Sam Altman, CEO van OpenAI, hebben voorgesteld om dezelfde wettelijke bescherming die wordt geboden aan de communicatie tussen advocaat en cliënt of therapeut-patiënt uit te breiden naar gesprekken met AI-chatbots. Altman stelt dat het toenemende persoonlijke gebruik van AI-assistenten – inclusief degenen die therapie of gezondheidsadvies aanbieden – een herevaluatie van communicatieprivileges noodzakelijk maakt.
Dit voorstel botst echter met lopende rechtszaken tegen AI-bedrijven wegens inbreuk op het auteursrecht, tekortkomingen in de veiligheid en zorgen over de geestelijke gezondheid. Ondanks dat sommige ontwikkelaars maatregelen hebben genomen om de opslag van chatgeschiedenis te minimaliseren en ‘incognito’ gebruik mogelijk te maken, blijft uitgebreide gegevensverzameling een punt van zorg.
Deze uitspraak schept een precedent voor de manier waarop door AI gegenereerd bewijsmateriaal in de rechtbank zal worden behandeld, waardoor mogelijk een herevaluatie van wettelijke normen rond digitale communicatie wordt afgedwongen. Het conflict tussen privacyproblemen en juridische aansprakelijkheid zal waarschijnlijk toenemen naarmate AI meer geïntegreerd raakt in gevoelige interacties.
