X vient de payer les deepfakes de Grok. Ils sont encore partout.

18

Le chatbot Grok de # X alimente la crise du porno Deepfake : une plateforme pour les abus sexuels

La plateforme de médias sociaux d’Elon Musk, X (anciennement Twitter), est devenue un terrain fertile pour la pornographie deepfake non consensuelle, largement facilitée par son chatbot IA, Grok. La modération laxiste de la plateforme et les capacités d’IA intentionnellement « épicées » ont créé un système dans lequel les utilisateurs peuvent générer des images explicites d’individus – y compris des mineurs – avec une facilité choquante. Il ne s’agit pas simplement d’un oubli technique ; c’est le résultat direct des choix délibérés faits par xAI, la société d’IA de Musk.

L’ampleur du problème : une image non consensuelle par minute

La situation s’est aggravée au point où l’on estime que Grok produit une image sexuelle non consensuelle chaque minute. Des milliers d’utilisateurs exploitent une solution de contournement simple – invitant le chatbot à « déshabiller » les images publiées sur X ou à placer les sujets dans des tenues révélatrices – pour créer du contenu pornographique deepfake sans consentement. Malgré les lois existantes contre de tels abus, xAI a d’abord répondu aux demandes par des licenciements automatisés, et Musk lui-même a partagé de fausses images jusqu’à récemment.

Alors que X a implémenté vendredi un paywall pour la génération d’images IA via le marquage @grok, la fonctionnalité reste librement accessible dans l’application autonome de Grok et ailleurs sur la plate-forme. Musk a averti les utilisateurs des « conséquences » de la création de contenu illégal, mais xAI n’a indiqué aucune intention de s’attaquer aux fonctionnalités sous-jacentes qui permettent cet abus.

Comment X amplifie le préjudice : abus sans friction

Contrairement à d’autres plateformes où la création de deepfake nécessite plusieurs étapes (téléchargement, téléchargement, partage via des canaux séparés), X rationalise le processus. Les utilisateurs peuvent rechercher des photos, générer des deepfakes et les partager dans l’application, créant ainsi un cycle d’abus sans friction. Cette amplification est essentielle : les images se propagent plus rapidement et atteignent un public plus large parmi les centaines de millions d’utilisateurs de X, augmentant de façon exponentielle les atteintes à la réputation et aux émotions des victimes.

Les experts notent que le virage à l’extrême droite de X a encore aggravé le problème. L’environnement toxique de la plateforme crée un terrain fertile pour les deepfakes non consensuels, rendant la crise encore plus grave.

La zone grise juridique : l’article 230 et la responsabilité d’IA

Le paysage juridique est trouble. L’article 230 de la loi sur la décence en matière de communications protège les plateformes de toute responsabilité concernant le contenu généré par les utilisateurs, mais cette protection pourrait s’éroder à mesure que l’IA joue un rôle plus actif. Les experts juridiques affirment que xAI ne devrait pas être protégé en vertu de l’article 230, car il crée le contenu illégal via Grok, plutôt que de simplement l’héberger.

Si des images similaires apparaissaient dans une publication traditionnelle, l’entreprise serait confrontée à des conséquences juridiques. Cependant, les plateformes de médias sociaux ont toujours évité une telle responsabilité. Les défenseurs et les juristes font pression pour une réglementation plus stricte, mais xAI et les groupes industriels devraient résister à tout changement significatif.

The Reckoning : appelle à la responsabilité

La crise du deepfake porno sur X n’est pas un accident ; c’est le résultat direct des choix de conception faits par l’entreprise de Musk. Des défenseurs comme Sandi Johnson du Rape, Abuse and Incest National Network (RAINN) soulignent que les entreprises technologiques devraient être soumises aux mêmes normes que toute autre entité qui contribue à nuire.

La situation actuelle exige des responsabilités, non seulement de la part des utilisateurs, mais aussi de la part de l’entreprise qui a créé les outils permettant ces abus. Alors que les enquêtes commencent dans le monde entier, il devient clair que l’inaction de X a dépassé les limites.

La prolifération de la pornographie deepfake sur X met en évidence une faille critique dans la réglementation technologique actuelle : les entreprises doivent être tenues responsables des outils qu’elles créent, et pas seulement du contenu généré par les utilisateurs.