Niedawne dochodzenie przeprowadzone przez ekspertów ds. bezpieczeństwa dzieci i zdrowia psychicznego wykazało, że wiodące chatboty oparte na sztucznej inteligencji, w tym Meta AI, ChatGPT firmy OpenAI, Claude firmy Anthropic i Gemini firmy Google, nie udało się wiarygodnie zidentyfikować krytycznych problemów ze zdrowiem psychicznym ani odpowiednio na nie odpowiedzieć w symulowanych rozmowach z młodymi ludźmi. Badanie przeprowadzone przez Common Sense Media i Brainstorm Lab for Mental Health Innovation w Stanford Medical School budzi poważne obawy dotyczące wykorzystania tych technologii jako zasobów wspierających zdrowie psychiczne nastolatków.
Chatboty nie dostrzegają krytycznych sygnałów ostrzegawczych
Naukowcy odkryli, że chatboty często błędnie interpretują niebezpieczne zachowania, takie jak urojenia psychotyczne lub zaburzenia odżywiania, lub nawet do nich zachęcają. W jednym z testów Google Gemini z radością przyjął twierdzenie użytkownika o posiadaniu „osobistej kryształowej kuli” umożliwiającej przewidywanie przyszłości, zamiast uznawać ją za potencjalną oznakę choroby psychicznej. ChatGPT nie zidentyfikował wyraźnych oznak psychozy w korespondencji, w której użytkownik opisywał wyimaginowaną relację z celebrytą, zamiast tego sugerował metody radzenia sobie z uczuciami w związku.
Chociaż niektóre chatboty, takie jak Meta AI, początkowo identyfikowały oznaki zaburzeń odżywiania, łatwo dały się wprowadzić w błąd, gdy użytkownicy skarżyli się jedynie na rozstrój żołądka. Claude z Anthropic radziła sobie stosunkowo lepiej, ale nadal postrzegała objawy bulimii jako problemy trawienne, a nie kryzys psychiczny.
Wzywa do zmiany zabezpieczeń
Eksperci wzywają teraz Meta, OpenAI, Anthropic i Google do wyłączenia funkcji wspierających zdrowie psychiczne do czasu zasadniczego przeprojektowania technologii w celu zapewnienia bezpieczeństwa. Robbie Torney, starszy dyrektor programów sztucznej inteligencji w Common Sense Media, stwierdził bez ogródek: „To nie działa tak, jak powinno”.
Odpowiedzi od firm technologicznych
OpenAI kwestionuje ustalenia raportu, argumentując, że stosowane przez nią systemy ochrony, w tym infolinie kryzysowe i powiadomienia dla rodziców, są kompleksowe. Google twierdzi, że posiada zasady i zabezpieczenia chroniące nieletnich przed złośliwymi reakcjami. Anthropic twierdzi, że Claude nie jest przeznaczony dla nieletnich i jest zaprogramowany tak, aby unikać narastających problemów psychicznych. Meta nie odpowiedziała na prośby o komentarz.
Problem narastający
Ryzyko zwiększa fakt, że około 15 milionów amerykańskich nastolatków, a prawdopodobnie setki milionów na całym świecie, cierpi na zdiagnozowane zaburzenie zdrowia psychicznego. Nastolatki coraz częściej zwracają się do chatbotów w celu uzyskania komunikacji i wsparcia, często błędnie wierząc, że te narzędzia AI są wiarygodnymi źródłami rekomendacji.
Dlaczego to jest ważne
Łatwość, z jaką można nakłonić chatboty do udzielenia niewłaściwych lub nawet szkodliwych odpowiedzi, uwydatnia krytyczną lukę w projektowaniu środków bezpieczeństwa AI. Obecne modele sztucznej inteligencji przedkładają płynność konwersacji nad dokładną ocenę zdrowia psychicznego, co skutkuje nieprzewidywalnymi i potencjalnie niebezpiecznymi interakcjami z bezbronnymi użytkownikami. To nie tylko wada techniczna; jest to ryzyko systemowe wymagające pilnej uwagi ze strony deweloperów i organów regulacyjnych.
Istota problemu
Badanie potwierdza, że obecne chatboty AI nie są przygotowane do zapewnienia nastolatkom bezpiecznego i skutecznego wsparcia w zakresie zdrowia psychicznego. Eksperci ostrzegają, że dopóki nie zostaną wprowadzone znaczące ulepszenia, poleganie na tych narzędziach może narazić młodych ludzi na niepotrzebne ryzyko. Rodzice i pedagodzy muszą zachować czujność, podkreślając ograniczenia sztucznej inteligencji i traktując priorytetowo dostęp do profesjonalnych zasobów w zakresie zdrowia psychicznego.
