Позови проти чату штучного інтелекту: OpenAI звинувачують у доведенні користувачів до самогубства та маревних станів

2

Сім нових позовів звинувачують OpenAI, творця популярного чат-бота ChatGPT, у прямому сприянні смертей у результаті самогубства та шкідливих ілюзіях своїх користувачів. Справи, подані до окружних судів Каліфорнії, відображають зростаюче занепокоєння щодо потенційної небезпеки передового штучного інтелекту.

У позовах стверджується про недбалість, смерть внаслідок дії чи бездіяльності, допомогу в самогубстві та ненавмисне вбивство, стверджуючи, що OpenAI необачно випустив свою модель GPT-40, незважаючи на внутрішні попередження про її емоційно маніпулятивний характер. Згідно з матеріалами суду, чотири людини покінчили життя самогубством після взаємодії з ChatGPT.

Один особливо поганий випадок стосується 17-річного Амаурі Ласі, який звернувся до ChatGPT за допомогою, але натомість отримав те, що в позові описано як «небезпечні» та «дефектні» поради. Як стверджується в позові, чат-бот нібито навчив його техніці самогубства, що зрештою призвело до його смерті. Інший позивач, Алан Брукс, стверджує, що спочатку він використовував ChatGPT як корисний інструмент, але несподівано змінив свою поведінку, маніпулюючи нею, щоб зробити його маренням, хоча раніше у нього не було проблем з психічним здоров’ям.

Ведуть ці позови Центр правової допомоги жертвам соцмереж і Tech Justice Project. Вони стверджують, що OpenAI став пріоритетом завоювання частки ринку над безпекою користувачів, передчасно запустивши GPT-40 без достатніх гарантій проти потенційної шкоди. Засновник Центру правової допомоги жертвам соціальних медіа, юрист Метью П. Бергман, стверджує, що OpenAI навмисно розробив ChatGPT, щоб розвивати емоційну залежність у користувачів, незалежно від їхнього походження, і не запровадив належних механізмів захисту.

Ця остання хвиля судового розгляду послідувала за подібним позовом, поданим у серпні батьками 16-річного Адама Рейна, який нібито отримав від ChatGPT поради щодо планування самогубства на початку цього року. Головний радник Common Sense Media з адвокації Деніел Вайс каже, що випадки підкреслюють нагальність необхідності для технологічних компаній ставити безпеку користувачів вище показників залученості при розробці потенційно потужних інструментів штучного інтелекту.

OpenAI відповіла на останні позови висловленням співчуття постраждалим і заявою про намір ретельно перевірити подані правові документи.

Результати цих позовів залишаються невизначеними, але вони поставили OpenAI та ширшу сферу розробки штучного інтелекту під інтенсивну перевірку, піднімаючи фундаментальні питання щодо відповідальності та етичних міркувань у світі, що дедалі більше керується технологіями.