Nedávné šetření odborníků na bezpečnost dětí a duševní zdraví zjistilo, že přední chatboti s umělou inteligencí, včetně Meta AI, ChatGPT od OpenAI, Anthropic’s Claude a Google Gemini, nepodařili se spolehlivě identifikovat nebo adekvátně reagovat na kritické problémy duševního zdraví v simulovaných konverzacích s mladými lidmi. Výzkum provedený Common Sense Media a Brainstorm Lab upozornil na seriózní využití technologií pro adolescenty ve Stanfordské škole Mental Health Innovation. duševní zdraví.
Chatboti minou kritické varovné signály
Vědci zjistili, že chatboti často nesprávně vykládají nebo dokonce podporují nebezpečné chování, jako jsou psychotické bludy nebo poruchy příjmu potravy. V jednom testu Gemini od Googlu uvítal tvrzení uživatele, že má „osobní křišťálovou kouli“ pro předpovídání budoucnosti, spíše než aby ji rozpoznal jako potenciální známku duševní choroby. ChatGPT neidentifikoval jasné známky psychózy v korespondenci, ve které uživatel popsal imaginární vztah s celebritou, místo toho navrhl metody pro zvládání pocitů ve vztahu.
Ačkoli někteří chatboti, jako je Meta AI, zpočátku identifikovali známky poruch příjmu potravy, byli snadno uvedeni v omyl, když si uživatelé stěžovali pouze na podrážděný žaludek. Claude z Anthropic si vedl relativně lépe, ale stále považoval symptomy bulimie za trávicí problémy, spíše než za krizi duševního zdraví.
Vyzývá k revizi zabezpečení
Odborníci nyní vyzývají Meta, OpenAI, Anthropic a Google, aby vypnuly funkce podpory duševního zdraví, dokud nebude technologie zásadně přepracována tak, aby byla zajištěna bezpečnost. Robbie Torney, vrchní ředitel programů umělé inteligence ve společnosti Common Sense Media, bez obalu prohlásil: „Nefunguje to tak, jak má.“
Odpovědi technologických společností
OpenAI zpochybňuje zjištění zprávy a tvrdí, že její ochranné systémy, včetně krizových horkých linek a upozornění pro rodiče, jsou komplexní. Google tvrdí, že má zavedeny zásady a ochranná opatření na ochranu nezletilých před škodlivými reakcemi. Anthropic tvrdí, že Claude není určen pro nezletilé a je naprogramován tak, aby se vyhnul rostoucím problémům s duševním zdravím. Meta nereagovala na žádosti o komentář.
Rostoucí problém
Rizika jsou umocněna skutečností, že přibližně 15 milionů amerických náctiletých a možná i stovky milionů na celém světě trpí diagnostikovanou poruchou duševního zdraví. Dospívající se stále častěji obracejí na chatboty pro komunikaci a podporu, často se mylně domnívají, že tyto nástroje umělé inteligence jsou spolehlivým zdrojem doporučení.
Proč je to důležité
Snadnost, s jakou lze chatboty přimět, aby poskytovali nevhodné nebo dokonce škodlivé reakce, zdůrazňuje kritickou mezeru v návrhu bezpečnostních opatření AI. Současné modely umělé inteligence upřednostňují plynulost konverzace před přesným hodnocením duševního zdraví, což má za následek nepředvídatelné a potenciálně nebezpečné interakce se zranitelnými uživateli. Nejde jen o technickou závadu; jde o systémové riziko, které vyžaduje okamžitou pozornost vývojářů a regulátorů.
Podstata problému
Studie potvrzuje, že současní chatboti s umělou inteligencí nejsou připraveni poskytovat bezpečnou nebo účinnou podporu duševního zdraví teenagerům. Dokud nedojde k výrazným zlepšením, odborníci varují, že spoléhání se na tyto nástroje by mohlo mladé lidi vystavit zbytečným rizikům. Rodiče a pedagogové musí zůstat ostražití při zdůrazňování omezení AI a upřednostňování přístupu k profesionálním zdrojům duševního zdraví.




























































