Documentos gerados por IA considerados admissíveis em tribunal, desafiando privilégio legal

12

Um juiz distrital dos EUA decidiu que documentos criados usando uma ferramenta de inteligência artificial e posteriormente compartilhados com um advogado são admissíveis como prova em tribunal, mesmo que estejam fora do privilégio tradicional advogado-cliente. Esta decisão destaca uma crescente área jurídica cinzenta em torno do uso de IA em comunicações sensíveis.

Detalhes do caso: acusações de fraude e evidências criadas por IA

A decisão ocorreu durante o processo preliminar no caso contra o CEO da Beneficient, Bradley Heppner, que é acusado de US$ 150 milhões em títulos e fraude eletrônica entre 2018 e 2021. Antes de sua prisão, Heppner usou o chatbot Claude da Anthropic para gerar 31 documentos, que foram posteriormente apreendidos pelos investigadores.

Os promotores argumentam que esses documentos deveriam ser tratados como “produtos de trabalho” padrão, em vez de estratégias jurídicas privilegiadas, citando as próprias políticas de uso da ferramenta de IA que não garantem a confidencialidade. A defesa rebateu que os documentos continham informações derivadas de conversas com representantes legais e deveriam, portanto, ser protegidos. Eles também alertaram que o uso das evidências poderia criar um conflito de interesses entre Heppner e seus advogados, podendo levar à anulação do julgamento.

Implicações para privacidade de IA e padrões legais

O juiz Rakoff rejeitou as reivindicações de privilégio da defesa, mas reconheceu a possibilidade de um conflito testemunha-advogado. Este caso sublinha uma tensão crescente entre desenvolvedores de IA, defensores da privacidade e estruturas legais. A decisão levanta questões sobre como os tribunais irão lidar com materiais gerados por IA em casos futuros.

O debate mais amplo: estendendo o privilégio legal às conversas sobre IA?

O debate vai além deste caso específico. Alguns executivos de IA, incluindo Sam Altman, CEO da OpenAI, propuseram estender as mesmas proteções legais concedidas às comunicações advogado-cliente ou terapeuta-paciente para conversas com chatbots de IA. Altman argumenta que o crescente uso pessoal de assistentes de IA – incluindo aqueles que oferecem terapia ou aconselhamento de saúde – exige uma reavaliação dos privilégios de comunicação.

No entanto, esta proposta entra em conflito com processos judiciais em curso contra empresas de IA por violação de direitos de autor, falhas de segurança e preocupações de saúde mental. Apesar de alguns desenvolvedores implementarem medidas para minimizar o armazenamento do histórico de bate-papo e permitir o uso “anônimo”, a extensa coleta de dados continua sendo uma preocupação.

Esta decisão estabelece um precedente sobre a forma como as provas geradas pela IA serão tratadas em tribunal, forçando potencialmente uma reavaliação dos padrões legais em torno das comunicações digitais. O conflito entre as preocupações com a privacidade e a responsabilidade legal provavelmente se intensificará à medida que a IA se tornar mais integrada em interações sensíveis.