X i kryzys związany z fałszywą pornografią: platforma dla przemocy seksualnej

5

Sieć społecznościowa Elona Muska X (dawniej Twitter) stała się wylęgarnią nielegalnej, fałszywej pornografii, w dużej mierze ułatwionej przez jego chatbota AI Grok. Luźna moderacja platformy i celowo ostre możliwości sztucznej inteligencji stworzyły system, w którym użytkownicy mogą z zadziwiającą łatwością generować wyraźne obrazy ludzi, w tym nieletnich. To nie tylko błąd techniczny, ale bezpośredni wynik świadomego wyboru dokonanego przez xAI, firmę AI Muska.

Skala problemu: jedno zdjęcie wykonane bez zgody na minutę

Sytuacja stała się tak zła, że szacuje się, że Grok co minutę generuje jeden obraz seksualny bez zgody. Tysiące użytkowników wykorzystuje prostą lukę, prosząc chatbota o „rozebranie” zdjęć opublikowanych w serwisie X lub umieszczenie na zdjęciach osób ubranych w odkrywcze ubrania w celu tworzenia fałszywych treści pornograficznych bez zgody. Pomimo istniejących przepisów zakazujących takiej przemocy, xAI początkowo odpowiadała na prośby automatycznymi odmowami, a sam Musk do niedawna publikował fałszywe obrazy.

Chociaż w piątek X wprowadził zaporę do generowania obrazów AI za pomocą tagu @grok, funkcja ta pozostaje swobodnie dostępna w samodzielnej aplikacji Grok i gdzie indziej na platformie. Musk ostrzegł użytkowników przed „konsekwencjami” tworzenia nielegalnych treści, ale xAI nie stwierdziło, że zamierza zająć się podstawową funkcjonalnością, która umożliwia tę przemoc.

Jak X zaostrza krzywdę: niekontrolowana przemoc

W przeciwieństwie do innych platform, na których tworzenie deepfake’ów wymaga kilku etapów (przesyłanie, przesyłanie, udostępnianie oddzielnymi kanałami), X upraszcza ten proces. Użytkownicy mogą robić zdjęcia, generować deepfake i udostępniać je wszystkie w jednej aplikacji, tworząc bezproblemowy cykl przemocy. To wzmocnienie ma kluczowe znaczenie: obrazy rozprzestrzeniają się szybciej i docierają do szerszej publiczności wśród setek milionów użytkowników X, wykładniczo zwiększając szkody wizerunkowe i emocjonalne ofiar.

Eksperci twierdzą, że skręt X w prawo jeszcze bardziej pogorszył problem. Toksyczne środowisko platformy stwarza podatny grunt dla nielegalnych deepfakes, co sprawia, że ​​kryzys jest jeszcze poważniejszy.

Szara strefa prawna: sekcja 230 i odpowiedzialność za sztuczną inteligencję

Sytuacja prawna jest niejasna. Artykuł 230 ustawy o przyzwoitości komunikacyjnej chroni platformy przed odpowiedzialnością za treści generowane przez użytkowników, ale ochrona ta może zostać osłabiona w miarę odgrywania coraz aktywniejszej roli sztucznej inteligencji. Prawnicy argumentują, że xAI nie powinna korzystać z ochrony na mocy sekcji 230, ponieważ tworzy nielegalne treści za pośrednictwem Groka, a nie po prostu je hostuje.

Gdyby podobne zdjęcia ukazały się w tradycyjnej publikacji, firmie groziłyby konsekwencje prawne. Jednak sieci społecznościowe tradycyjnie unikały takiej odpowiedzialności. Zwolennicy i prawnicy nawołują do silniejszych regulacji, ale oczekuje się, że xAI i grupy branżowe będą opierać się jakimkolwiek znaczącym zmianom.

Narażenie: wymaga odpowiedzialności

Kryzys związany z deepfake pornografią w X nie jest przypadkiem, ale bezpośrednim skutkiem decyzji projektowych podjętych przez firmę Muska. Zwolennicy tacy jak Sandi Johnson z krajowej sieci gwałtów, nadużyć i kazirodztwa (RAINN) podkreślają, że firmy technologiczne powinny przestrzegać tych samych standardów, co każda inna organizacja promująca krzywdę.

Obecna sytuacja wymaga odpowiedzialności nie tylko od użytkowników, ale także od firmy, która stworzyła narzędzia umożliwiające tę przemoc. W miarę jak na całym świecie rozpoczynają się dochodzenia, staje się jasne, że bezczynność X przekroczyła granicę.

Rozpowszechnianie się fałszywej pornografii w serwisie X uwypukla krytyczną wadę obecnych przepisów technologicznych: firmy powinny ponosić odpowiedzialność za tworzone przez siebie narzędzia, a nie tylko za treści generowane przez użytkowników.