Безпека ШІ відстає від розвитку: технологічним компаніям бракує надійних планів контролю

1

У новому звіті попереджається, що провідні світові компанії штучного інтелекту (ШІ) навіть не відповідають власним заявленим стандартам безпеки. Відсутність нагляду посилюється, оскільки гонка за штучним загальним інтелектом (AGI) і суперінтелектом — штучним інтелектом, який перевершує людський інтелект — прискорюється, що підвищує потенціал «катастрофічних» зловживань або втрати контролю.

Ризики випереджають регулювання

Winter 2025 AI Security Index, опублікований Інститутом майбутнього життя (FLI), ранжував вісім великих компаній зі штучним інтелектом: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud і Z.ai. Оцінка показала, що жодна компанія не має перевіреного плану підтримки людського контролю над все більш потужними системами ШІ.

Незалежні експерти підкреслюють гостроту ситуації: компанії стверджують, що можуть створити надрозумний ШІ, але жодна не може продемонструвати, як запобігти втраті контролю. Як зазначив один комп’ютерний вчений з Каліфорнійського університету в Берклі, компанії ШІ наразі не можуть гарантувати рівень ризику, який можна порівняти зі стандартами ядерної безпеки. Деякі оцінки показують, що ризик неконтрольованого штучного інтелекту становить один із трьох, що вважається неприйнятним за галузевими стандартами.

Ця невідповідність між можливостями та контролем є критичною, оскільки ШІ розвивається безпрецедентними темпами. За деякими оцінками, те, що колись вважалося справою десятиліть — суперінтелект — може з’явитися тут лише за кілька років. Тим часом регулювання ШІ залишається слабким. У США штучний інтелект регулюється менш, ніж сендвічі, а технологічні компанії активно лобіюють проти обов’язкових стандартів безпеки.

Різні результати серед компаній

У звіті FLI компанії оцінювалися за такими критеріями: оцінка ризику, поточний збиток, системи безпеки, екзистенціальна безпека, управління, відповідальність і комунікація.

  • Anthropic, OpenAI і Google DeepMind отримали похвалу за дослідження прозорості та безпеки, але все ще мають недоліки. Перехід Anthropic до навчання на основі користувачів викликає занепокоєння щодо конфіденційності. OpenAI критикували за лобіювання проти законодавства та відсутність незалежного нагляду. Залежність Google DeepMind від платних зовнішніх оцінювачів викликає сумніви щодо об’єктивності.
  • xAI опублікував свою першу систему безпеки, хоча рецензенти вважали її обмеженою.
  • Z.ai допускає зовнішні рейтинги без цензури, але не забезпечує повної прозорості в структурі управління.
  • Meta запровадила порогові значення безпеки на основі результатів, але вимагає чіткішої методології.
  • DeepSeek не надає базової документації безпеки, незважаючи на внутрішню підтримку.
  • Alibaba Cloud сприяє дотриманню національних стандартів, але має підвищувати надійність і надійність своїх моделей.

Ці результати показують, що навіть провідні компанії стикаються з труднощами при впровадженні комплексних заходів безпеки. Нещодавні скандали, пов’язані з психологічними травмами, кібератаками та навіть самогубствами за допомогою ШІ, демонструють реальні наслідки цих прогалин.

Широка опозиція неконтрольованому суперінтелекту

Зростання ризиків викликало безпрецедентну реакцію. У жовтні тисячі громадських діячів з усього політичного спектру, включаючи колишнього стратега Трампа Стіва Беннона, колишнього радника з національної безпеки Сьюзан Райс і релігійних лідерів, підписали петицію, яка закликала компанії штучного інтелекту сповільнити свої зусилля з досягнення суперінтелекту.

Незвичайний альянс підкреслює спільне занепокоєння, що неконтрольований штучний інтелект може знищити робочі місця, погіршити економічну нерівність і, зрештою, підірвати автономію людини. Як зазначив один експерт, «суперінтелект зробить неможливим для кожного працівника заробляти на життя». Таке зближення страху серед робітничих лівих і популістських правих свідчить про те, що проблема виходить за рамки традиційних ідеологічних поділів.

Поточна траєкторія штучного інтелекту представляє значні ризики, і без суттєвих покращень безпеки та нормативної бази потенціал катастрофічних наслідків залишається небезпечно високим.