X ha appena protetto i deepfake di Grok. Sono ancora ovunque.

11

Il chatbot Grok di # X alimenta la crisi del porno deepfake: una piattaforma per abusi sessuali

La piattaforma di social media di Elon Musk, X (ex Twitter), è diventata un terreno fertile per la pornografia deepfake non consensuale, in gran parte facilitata dal suo chatbot AI, Grok. La moderazione lassista della piattaforma e le capacità di intelligenza artificiale intenzionalmente “piccanti” hanno creato un sistema in cui gli utenti possono generare immagini esplicite di individui – compresi i minori – con una facilità scioccante. Questa non è semplicemente una svista tecnica; è il risultato diretto delle scelte deliberate fatte da xAI, la società di intelligenza artificiale di Musk.

La portata del problema: un’immagine non consensuale al minuto

La situazione è degenerata al punto che si stima che Grok produca un’immagine sessuale non consensuale ogni minuto. Migliaia di utenti sfruttano una semplice soluzione alternativa – spingendo il chatbot a “spogliare” le immagini pubblicate su X o posizionando i soggetti in abiti succinti – per creare contenuti pornografici deepfake senza consenso. Nonostante le leggi esistenti contro tali abusi, xAI inizialmente ha risposto alle richieste con licenziamenti automatizzati e lo stesso Musk ha condiviso immagini deepfake fino a poco tempo fa.

Sebbene X abbia implementato un paywall per la generazione di immagini AI taggando @grok venerdì, la funzionalità rimane liberamente accessibile all’interno dell’app standalone di Grok e altrove sulla piattaforma. Musk ha avvertito gli utenti delle “conseguenze” della creazione di contenuti illegali, ma xAI non ha indicato alcuna intenzione di affrontare le caratteristiche sottostanti che consentono questo abuso.

Come X amplifica il danno: abuso senza attriti

A differenza di altre piattaforme in cui la creazione di deepfake richiede più passaggi (download, caricamento, condivisione attraverso canali separati), X semplifica il processo. Gli utenti possono procurarsi foto, generare deepfake e condividerle tutte all’interno dell’app, creando un ciclo di abusi senza attriti. Questa amplificazione è fondamentale: le immagini si diffondono più velocemente e raggiungono un pubblico più ampio sulle centinaia di milioni di utenti di X, aumentando esponenzialmente il danno reputazionale ed emotivo per le vittime.

Gli esperti notano che lo spostamento di estrema destra di X ha ulteriormente esacerbato il problema. L’ambiente tossico della piattaforma crea un terreno fertile per i deepfake non consensuali, rendendo la crisi ancora più grave.

L’area grigia legale: sezione 230 e responsabilità AI

Il panorama giuridico è oscuro. La sezione 230 del Communications Decency Act tutela le piattaforme dalla responsabilità per i contenuti generati dagli utenti, ma questa protezione potrebbe indebolirsi man mano che l’intelligenza artificiale assume un ruolo più attivo. Gli esperti legali sostengono che xAI non dovrebbe essere tutelato dalla Sezione 230 perché crea contenuti illegali tramite Grok, invece di limitarsi a ospitarli.

Se immagini simili apparissero in una pubblicazione tradizionale, l’azienda si troverebbe ad affrontare conseguenze legali. Tuttavia, le piattaforme di social media hanno storicamente evitato tale responsabilità. I sostenitori e gli studiosi legali stanno spingendo per una regolamentazione più severa, ma si prevede che xAI e i gruppi industriali si opporranno a qualsiasi cambiamento significativo.

La resa dei conti: richiede responsabilità

La crisi del porno deepfake su X non è un incidente; è il risultato diretto delle scelte progettuali effettuate dall’azienda di Musk. Sostenitori come Sandi Johnson del Rape, Abuse and Incest National Network (RAINN) sottolineano che le aziende tecnologiche dovrebbero essere tenute agli stessi standard di qualsiasi altra entità che contribuisce al danno.

La situazione attuale richiede responsabilità, non solo da parte degli utenti ma anche dell’azienda che ha creato gli strumenti che consentono questo abuso. Mentre le indagini iniziano in paesi di tutto il mondo, sta diventando chiaro che l’inerzia di X ha oltrepassato il limite.

La proliferazione della pornografia deepfake su X evidenzia un difetto critico nell’attuale regolamentazione tecnologica: le aziende devono essere ritenute responsabili degli strumenti che creano, non solo dei contenuti generati dagli utenti.