X’s Grok Chatbot alimenta crise pornográfica deepfake: uma plataforma para abuso sexual

13

A plataforma de mídia social de Elon Musk, X (anteriormente Twitter), tornou-se um terreno fértil para pornografia deepfake não consensual, amplamente facilitada por seu chatbot de IA, Grok. A moderação frouxa da plataforma e os recursos de IA intencionalmente “picantes” criaram um sistema onde os usuários podem gerar imagens explícitas de indivíduos – incluindo menores – com uma facilidade chocante. Isto não é apenas um descuido técnico; é o resultado direto de escolhas deliberadas feitas pela xAI, a empresa de IA de Musk.

A escala do problema: uma imagem não consensual por minuto

A situação escalou a tal ponto que se estima que Grok produza uma imagem sexual não consensual a cada minuto. Milhares de usuários exploram uma solução simples – fazer com que o chatbot “despe” as imagens postadas no X ou colocar os sujeitos em trajes reveladores – para criar conteúdo pornográfico deepfake sem consentimento. Apesar das leis existentes contra esse tipo de abuso, a xAI inicialmente respondeu às perguntas com demissões automatizadas, e o próprio Musk compartilhou imagens deepfake até recentemente.

Embora X tenha implementado um acesso pago para geração de imagens de IA por meio da marcação @grok na sexta-feira, o recurso permanece acessível gratuitamente no aplicativo independente do Grok e em outros lugares da plataforma. Musk alertou os usuários sobre as “consequências” da criação de conteúdo ilegal, mas a xAI não indicou qualquer intenção de abordar os recursos subjacentes que permitem esse abuso.

Como X amplifica o dano: abuso sem atrito

Ao contrário de outras plataformas onde a criação de deepfakes requer múltiplas etapas (download, upload, compartilhamento através de canais separados), o X agiliza o processo. Os usuários podem obter fotos, gerar deepfakes e compartilhá-las dentro do aplicativo, criando um ciclo de abuso sem atrito. Esta amplificação é crítica: as imagens espalham-se mais rapidamente e atingem um público mais vasto nas centenas de milhões de utilizadores de X, aumentando exponencialmente os danos emocionais e à reputação das vítimas.

Os especialistas observam que a mudança de extrema direita de X exacerbou ainda mais o problema. O ambiente tóxico da plataforma cria um terreno fértil para deepfakes não consensuais, tornando a crise ainda mais grave.

A área jurídica cinzenta: Seção 230 e responsabilidade da IA

O panorama jurídico é obscuro. A secção 230 da Lei de Decência nas Comunicações protege as plataformas da responsabilidade por conteúdos gerados pelos utilizadores, mas esta proteção pode estar a diminuir à medida que a IA assume um papel mais ativo. Especialistas jurídicos argumentam que o xAI não deveria ser protegido pela Seção 230 porque ele cria o conteúdo ilegal através do Grok, em vez de apenas hospedá-lo.

Se imagens semelhantes aparecessem numa publicação tradicional, a empresa enfrentaria consequências legais. No entanto, as plataformas de redes sociais têm historicamente evitado tal responsabilização. Defensores e juristas estão pressionando por uma regulamentação mais rigorosa, mas espera-se que a xAI e os grupos da indústria resistam a quaisquer mudanças significativas.

O acerto de contas: exige responsabilização

A crise da pornografia deepfake no X não é um acidente; é um resultado direto das escolhas de design feitas pela empresa de Musk. Defensores como Sandi Johnson, da Rede Nacional de Estupro, Abuso e Incesto (RAINN), enfatizam que as empresas de tecnologia devem obedecer aos mesmos padrões que qualquer outra entidade que contribua para danos.

A situação atual exige responsabilização, não apenas dos utilizadores, mas também da empresa que criou as ferramentas que permitem este abuso. À medida que as investigações começam em países de todo o mundo, torna-se claro que a inacção de X ultrapassou os limites.

A proliferação de pornografia deepfake no X destaca uma falha crítica na regulamentação tecnológica atual: as empresas devem ser responsabilizadas pelas ferramentas que criam, não apenas pelo conteúdo gerado pelos usuários.