Elon Musks Social-Media-Plattform X (ehemals Twitter) ist zu einem Nährboden für nicht einvernehmliche Deepfake-Pornografie geworden, was größtenteils durch seinen KI-Chatbot Grok ermöglicht wird. Die laxe Moderation der Plattform und die absichtlich „pikanten“ KI-Funktionen haben ein System geschaffen, mit dem Benutzer mit erschreckender Leichtigkeit explizite Bilder von Personen – einschließlich Minderjährigen – erstellen können. Dabei handelt es sich nicht nur um ein technisches Versehen; Es ist das direkte Ergebnis bewusster Entscheidungen von xAI, Musks KI-Unternehmen.
Das Ausmaß des Problems: Ein nicht einvernehmliches Bild pro Minute
Die Situation ist so weit eskaliert, dass Grok schätzungsweise jede Minute ein nicht einvernehmliches sexuelles Bild produziert. Tausende Benutzer nutzen eine einfache Problemumgehung – indem sie den Chatbot dazu veranlassen, auf Trotz bestehender Gesetze gegen solchen Missbrauch reagierte xAI auf Anfragen zunächst mit automatischen Entlassungen, und Musk selbst teilte bis vor Kurzem Deepfake-Bilder.
Während X am Freitag eine Paywall für die KI-Bildgenerierung durch das Markieren von @grok eingeführt hat, bleibt die Funktion innerhalb der eigenständigen App von Grok und anderswo auf der Plattform frei zugänglich. Musk warnte Benutzer vor „Konsequenzen“ für die Erstellung illegaler Inhalte, xAI hat jedoch nicht die Absicht angedeutet, sich mit den zugrunde liegenden Merkmalen zu befassen, die diesen Missbrauch ermöglichen.
Wie X den Schaden verstärkt: Reibungsloser Missbrauch
Im Gegensatz zu anderen Plattformen, bei denen die Erstellung von Deepfakes mehrere Schritte erfordert (Herunterladen, Hochladen, Teilen über separate Kanäle), optimiert X den Prozess. Benutzer können Fotos beschaffen, Deepfakes generieren und sie alle innerhalb der App teilen, wodurch ein reibungsloser Missbrauchskreislauf entsteht. Diese Verstärkung ist von entscheidender Bedeutung: Bilder verbreiten sich schneller und erreichen ein breiteres Publikum auf den Hunderten Millionen Benutzern von X, was den Ruf und den emotionalen Schaden der Opfer exponentiell erhöht.
Experten weisen darauf hin, dass der Rechtsruck von X das Problem weiter verschärft hat. Das toxische Umfeld der Plattform schafft einen fruchtbaren Boden für nicht einvernehmliche Deepfakes, was die Krise noch schlimmer macht.
Die rechtliche Grauzone: Abschnitt 230 und KI-Haftung
Die Rechtslandschaft ist unklar. Abschnitt 230 des Communications Decency Act schützt Plattformen vor der Haftung für benutzergenerierte Inhalte, dieser Schutz könnte jedoch nachlassen, da KI eine aktivere Rolle einnimmt. Rechtsexperten argumentieren, dass xAI nicht gemäß Abschnitt 230 geschützt werden sollte, da es die illegalen Inhalte über Grok erstellt, anstatt sie lediglich zu hosten.
Würden ähnliche Bilder in einer herkömmlichen Publikation auftauchen, drohen dem Unternehmen rechtliche Konsequenzen. Allerdings haben Social-Media-Plattformen eine solche Verantwortung in der Vergangenheit vermieden. Befürworter und Rechtswissenschaftler drängen auf eine strengere Regulierung, doch von xAI und Branchenverbänden wird erwartet, dass sie sich allen wesentlichen Änderungen widersetzen.
Die Abrechnung: Ruft nach Rechenschaftspflicht
Die Deepfake-Porno-Krise auf X ist kein Zufall; Es ist ein direktes Ergebnis der Designentscheidungen von Musks Unternehmen. Befürworter wie Sandi Johnson vom Rape, Abuse and Incest National Network (RAINN) betonen, dass Technologieunternehmen denselben Standards unterliegen sollten wie alle anderen Unternehmen, die zum Schaden beitragen.
Die aktuelle Situation erfordert Rechenschaftspflicht, nicht nur von den Benutzern, sondern auch von dem Unternehmen, das die Tools entwickelt hat, die diesen Missbrauch ermöglichen. Während die Ermittlungen in Ländern auf der ganzen Welt beginnen, wird deutlich, dass die Untätigkeit von X eine Grenze überschritten hat.
**Die Verbreitung von Deepfake-Pornografie auf
