Documentos generados por IA declarados admisibles en los tribunales, desafiando el privilegio legal

21

Un juez de distrito de EE. UU. dictaminó que los documentos creados utilizando una herramienta de inteligencia artificial y posteriormente compartidos con un abogado son admisibles como prueba en el tribunal, incluso si quedan fuera del privilegio tradicional entre abogado y cliente. Esta decisión pone de relieve una creciente zona gris jurídica en torno al uso de la IA en comunicaciones sensibles.

Detalles del caso: cargos de fraude y pruebas creadas por IA

El fallo se produjo durante los procedimientos preliminares en el caso contra el director ejecutivo de Beneficient, Bradley Heppner, acusado de 150 millones de dólares en fraude de valores y transferencias electrónicas entre 2018 y 2021. Antes de su arresto, Heppner utilizó el chatbot Claude de Anthropic para generar 31 documentos, que luego fueron incautados por los investigadores.

Los fiscales argumentan que estos documentos deberían tratarse como un “producto de trabajo” estándar en lugar de una estrategia legal privilegiada, citando las propias políticas de uso de la herramienta de inteligencia artificial que no garantizan la confidencialidad. La defensa respondió que los documentos contenían información derivada de conversaciones con representantes legales y, por lo tanto, debían ser protegidos. También advirtieron que el uso de pruebas podría crear un conflicto de intereses entre Heppner y sus abogados, lo que podría conducir a la anulación del juicio.

Implicaciones para los estándares legales y de privacidad de la IA

El juez Rakoff rechazó las reclamaciones de privilegio de la defensa, pero reconoció la posibilidad de un conflicto entre testigo y abogado. Este caso subraya una tensión cada vez mayor entre los desarrolladores de IA, los defensores de la privacidad y los marcos legales. El fallo plantea dudas sobre cómo los tribunales manejarán los materiales generados por IA en casos futuros.

El debate más amplio: ¿Extender el privilegio legal a las conversaciones sobre IA?

El debate se extiende más allá de este caso específico. Algunos ejecutivos de IA, incluido el director ejecutivo de OpenAI, Sam Altman, han propuesto extender las mismas protecciones legales otorgadas a las comunicaciones abogado-cliente o terapeuta-paciente a las conversaciones con chatbots de IA. Altman sostiene que el creciente uso personal de asistentes de IA (incluidos aquellos que ofrecen terapia o consejos de salud) requiere una reevaluación de los privilegios de comunicación.

Sin embargo, esta propuesta choca con las demandas en curso contra empresas de inteligencia artificial por infracción de derechos de autor, fallas de seguridad y problemas de salud mental. A pesar de que algunos desarrolladores implementaron medidas para minimizar el almacenamiento del historial de chat y permitir el uso “de incógnito”, la recopilación extensa de datos sigue siendo una preocupación.

Este fallo sienta un precedente sobre cómo se tratarán en los tribunales las pruebas generadas por IA, lo que podría obligar a una reevaluación de los estándares legales en torno a las comunicaciones digitales. El conflicto entre las preocupaciones por la privacidad y la responsabilidad legal probablemente se intensificará a medida que la IA se integre más en las interacciones sensibles.