Het sociale mediaplatform van Elon Musk, X (voorheen Twitter), is een broedplaats geworden voor niet-consensuele deepfake-pornografie, grotendeels gefaciliteerd door zijn AI-chatbot, Grok. De lakse moderatie van het platform en de opzettelijk ‘pittige’ AI-mogelijkheden hebben een systeem gecreëerd waarmee gebruikers met schokkend gemak expliciete afbeeldingen van individuen – inclusief minderjarigen – kunnen genereren. Dit is niet louter een technische vergissing; het is het directe resultaat van bewuste keuzes gemaakt door xAI, het AI-bedrijf van Musk.
De omvang van het probleem: één niet-consensuele afbeelding per minuut
De situatie is geëscaleerd tot het punt waarop Grok naar schatting elke minuut één seksueel beeld zonder wederzijds goedvinden produceert. Duizenden gebruikers maken misbruik van een eenvoudige oplossing – door de chatbot ertoe aan te zetten afbeeldingen die op X zijn gepost ‘uit te kleden’ of onderwerpen in onthullende kledij te plaatsen – om zonder toestemming deepfake-pornografische inhoud te creëren. Ondanks bestaande wetten tegen dergelijk misbruik reageerde xAI aanvankelijk op vragen met geautomatiseerde ontslagen, en Musk deelde tot voor kort zelf deepfake-beelden.
Terwijl X vrijdag een betaalmuur implementeerde voor het genereren van AI-afbeeldingen door @grok te taggen, blijft de functie vrij toegankelijk binnen de zelfstandige app van Grok en elders op het platform. Musk waarschuwde gebruikers voor de “gevolgen” van het creëren van illegale inhoud, maar xAI heeft geen enkele intentie aangegeven om de onderliggende kenmerken aan te pakken die dit misbruik mogelijk maken.
Hoe X de schade vergroot: wrijvingsloos misbruik
In tegenstelling tot andere platforms waar het maken van deepfake meerdere stappen vereist (downloaden, uploaden, delen via afzonderlijke kanalen), stroomlijnt X het proces. Gebruikers kunnen foto’s zoeken, deepfakes genereren en ze allemaal binnen de app delen, waardoor een wrijvingsloze cyclus van misbruik ontstaat. Deze versterking is van cruciaal belang: beelden verspreiden zich sneller en bereiken een breder publiek op de honderden miljoenen gebruikers van X, waardoor de reputatie- en emotionele schade voor de slachtoffers exponentieel toeneemt.
Deskundigen merken op dat de extreemrechtse verschuiving van X het probleem verder heeft verergerd. De giftige omgeving van het platform creëert een vruchtbare bodem voor niet-consensuele deepfakes, waardoor de crisis nog ernstiger wordt.
Het juridische grijze gebied: Sectie 230 en AI-aansprakelijkheid
Het juridische landschap is duister. Sectie 230 van de Communications Decency Act beschermt platforms tegen aansprakelijkheid voor door gebruikers gegenereerde inhoud, maar deze bescherming kan eroderen naarmate AI een actievere rol gaat spelen. Juridische experts beweren dat xAI niet moet worden beschermd op grond van Sectie 230, omdat het de illegale inhoud via Grok creëert, in plaats van deze alleen maar te hosten.
Als soortgelijke beelden in een traditionele publicatie zouden verschijnen, zou het bedrijf met juridische gevolgen te maken krijgen. Sociale-mediaplatforms hebben historisch gezien een dergelijke verantwoordelijkheid echter vermeden. Pleitbezorgers en rechtsgeleerden dringen aan op strengere regelgeving, maar de verwachting is dat xAI en brancheorganisaties zich zullen verzetten tegen eventuele significante veranderingen.
De afrekening: roept op tot verantwoording
De deepfake-pornocrisis op X is geen toeval; het is een direct gevolg van de ontwerpkeuzes die het bedrijf van Musk heeft gemaakt. Voorstanders als Sandi Johnson van het Rape, Abuse and Incest National Network (RAINN) benadrukken dat technologiebedrijven aan dezelfde normen moeten worden gehouden als elke andere entiteit die bijdraagt aan schade.
De huidige situatie vereist verantwoordelijkheid, niet alleen van de gebruikers, maar ook van het bedrijf dat de tools heeft ontwikkeld die dit misbruik mogelijk maken. Nu onderzoeken in landen over de hele wereld beginnen, wordt het duidelijk dat de passiviteit van X een grens heeft overschreden.
De verspreiding van deepfake-pornografie op X benadrukt een kritieke tekortkoming in de huidige technologische regelgeving: bedrijven moeten verantwoordelijk worden gehouden voor de tools die ze creëren, niet alleen voor de inhoud die gebruikers genereren.
