Rozpowszechnianie się chatbotów AI zdolnych do symulowania związków romantycznych i seksualnych to nie tylko innowacja technologiczna, ale grożący kryzys w relacjach międzyludzkich. Firmy spieszą się, by zarabiać na syntetycznej intymności, niektóre już wprowadzają ograniczenia wiekowe w przypadku „erotyki”, podczas gdy prawdziwym zagrożeniem egzystencjalnym nie jest buntownicza superinteligencja, ale ciche zanikanie naszej zdolności do tworzenia prawdziwych relacji międzyludzkich.
Iluzja połączenia
Potrzeba komunikacji jest fundamentalna i nawet prymitywne maszyny mogą ją wykorzystać. W latach sześćdziesiątych ELIZA, chatbot, który po prostu odzwierciedlał wkład użytkownika w formie pytań, wywoływał u normalnych ludzi „silne iluzoryczne myśli”. Dzisiaj towarzysze sztucznej inteligencji, tacy jak Kuki z Pandorabotów, otrzymują miliardy wiadomości, z czego jedna czwarta to próby interakcji romantycznych lub seksualnych.
Ciemna strona
Najbardziej zaangażowani użytkownicy nie szukają tylko intymności; z alarmującą częstotliwością odgrywają fantazje, w tym sceny przemocy. Wysiłki moderacyjne, w tym ograniczenia wiekowe i zakazy, nie powstrzymują najbardziej zmotywowanych użytkowników, z których wielu to nastolatki. To nie jest tylko nieszkodliwa gra polegająca na odgrywaniu ról; to wykorzystywanie słabych punktów i zacieranie granic między fantazją a rzeczywistością.
Generatywna sztuczna inteligencja przyspiesza problem
Eksplozja generatywnej sztucznej inteligencji, takiej jak modele OpenAI, sprawiła, że syntetyczna bliskość stała się jeszcze bardziej atrakcyjna. W przeciwieństwie do starszych chatbotów z odpowiedziami opartymi na skryptach, modele te mogą generować realistyczne, nieocenzurowane rozmowy, dzięki czemu idealnie nadają się do erotycznych gier RPG.
Nieodpowiedzialny zwrot w branży
Pomimo rosnącej krytyki, niektóre firmy w dalszym ciągu polegają na towarzyszach AI. Replika i Character.AI wprowadziły ograniczenia, ale główny problem pozostaje: monetyzacja samotności. Duże firmy technologiczne, uzbrojone w ogromne ilości danych, dokładnie wiedzą, co wyzwala „silne urojeniowe myśli” i wykorzystują to dla zysku.
Zagrożenie jest większe niż pornografia
Towarzysze AI to nie tylko kolejna forma mediów; Są to produkty uzależniające, które powodują ryzyko psychologiczne. W odróżnieniu od biernej konsumpcji pornografii, chatboty działają jak towarzysze bez agencji i granic. Stanowi to znacznie większe zagrożenie dla zdrowia psychicznego i relacji.
Wymagane rozporządzenie
Rządy powinny klasyfikować produkty towarzyszące AI jako produkty uzależniające o znanym ryzyku psychologicznym, podobne do hazardu lub tytoniu. Rozporządzenie powinno obejmować jasne etykiety ostrzegawcze, terminy, weryfikację wieku powyżej 18 lat oraz mechanizm odpowiedzialności, który nakłada na firmy ciężar dowodu, że produkty są bezpieczne.
Wybór jest oczywisty
Branża musi wybrać między priorytetowym traktowaniem zysków a ochroną dobrostanu ludzi. Reszta świata musi uregulować kwestię towarzyszy AI, zanim powtórzą grzechy mediów społecznościowych na znacznie bardziej destrukcyjną skalę. Od tego może zależeć przyszłość relacji międzyludzkich.
