Un juge de district américain a statué que les documents créés à l’aide d’un outil d’intelligence artificielle et ensuite partagés avec un avocat sont admissibles comme preuve devant le tribunal, même s’ils ne relèvent pas du secret professionnel traditionnel de l’avocat. Cette décision met en évidence une zone grise juridique croissante entourant l’utilisation de l’IA dans les communications sensibles.
Détails du dossier : accusations de fraude et preuves créées par l’IA
La décision a été rendue lors de la procédure préliminaire dans l’affaire contre le PDG de Beneficient, Bradley Heppner, accusé de 150 millions de dollars de fraude en valeurs mobilières et par fil entre 2018 et 2021. Avant son arrestation, Heppner a utilisé le chatbot Claude d’Anthropic pour générer 31 documents, qui ont ensuite été saisis par les enquêteurs.
Les procureurs soutiennent que ces documents devraient être traités comme un « produit de travail » standard plutôt que comme une stratégie juridique privilégiée, citant les propres politiques d’utilisation de l’outil d’IA qui ne garantissent pas la confidentialité. L’équipe de défense a rétorqué que les documents contenaient des informations provenant de conversations avec des représentants légaux et devaient donc être protégés. Ils ont également averti que l’utilisation de ces preuves pourrait créer un conflit d’intérêts entre Heppner et ses avocats, pouvant conduire à l’annulation du procès.
Implications pour la confidentialité et les normes juridiques de l’IA
Le juge Rakoff a rejeté les allégations de privilège de la défense, mais a reconnu la possibilité d’un conflit entre témoin et avocat. Cette affaire souligne une tension croissante entre les développeurs d’IA, les défenseurs de la vie privée et les cadres juridiques. La décision soulève des questions sur la manière dont les tribunaux traiteront les documents générés par l’IA dans les affaires futures.
Le débat plus large : étendre le privilège juridique aux conversations sur l’IA ?
Le débat s’étend au-delà de ce cas précis. Certains dirigeants d’IA, dont Sam Altman, PDG d’OpenAI, ont proposé d’étendre les mêmes protections juridiques accordées aux communications avocat-client ou thérapeute-patient aux conversations avec les chatbots IA. Altman soutient que l’utilisation personnelle croissante des assistants IA, y compris ceux proposant des thérapies ou des conseils de santé, nécessite une réévaluation des privilèges de communication.
Cependant, cette proposition entre en conflit avec les poursuites en cours contre les sociétés d’IA pour violation du droit d’auteur, manquements à la sécurité et problèmes de santé mentale. Bien que certains développeurs aient mis en œuvre des mesures pour minimiser le stockage de l’historique des discussions et permettre une utilisation « incognito », la collecte approfondie de données reste une préoccupation.
Cette décision crée un précédent quant à la manière dont les preuves générées par l’IA seront traitées devant les tribunaux, obligeant potentiellement à une réévaluation des normes juridiques autour des communications numériques. Le conflit entre les préoccupations en matière de confidentialité et la responsabilité juridique s’intensifiera probablement à mesure que l’IA sera davantage intégrée aux interactions sensibles.































