Безопасность ИИ отстает от развития: у технологических компаний нет надежных планов контроля

2

Ведущие мировые компании в области искусственного интеллекта (ИИ) не соответствуют даже собственным заявленным стандартам безопасности, предупреждает новый отчет. Отсутствие надзора усиливается по мере ускорения гонки к искусственному общему интеллекту (AGI) и сверхинтеллекту — ИИ, превосходящему человеческий интеллект, — что повышает потенциал для «катастрофического» злоупотребления или потери контроля.

Риски опережают регулирование

Индекс безопасности ИИ за зиму 2025 года, опубликованный Институтом будущего жизни (FLI), оценил восемь крупных ИИ-компаний: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud и Z.ai. Оценка показала, что ни одна компания не имеет проверяемого плана поддержания человеческого контроля над все более мощными ИИ-системами.

Независимые эксперты подчеркивают неотложность ситуации: компании утверждают, что могут создавать сверхинтеллектуальный ИИ, но ни одна из них не может продемонстрировать, как предотвратить потерю контроля. Как выразился один ученый-компьютерщик из Калифорнийского университета в Беркли, ИИ-компании в настоящее время не могут гарантировать уровень риска, сопоставимый со стандартами ядерной безопасности. Некоторые оценки указывают на то, что риск неконтролируемого ИИ высок, как один к трем, что считается неприемлемым по отраслевым стандартам.

Это несоответствие между возможностями и контролем критично, потому что ИИ развивается беспрецедентными темпами. То, что когда-то считалось делом десятилетий — сверхинтеллект, — по оценкам некоторых, может наступить уже в течение нескольких лет. Между тем, регулирование ИИ остается слабым. В США ИИ регулируется слабее, чем сэндвичи, при этом технологические компании активно лоббируют против обязательных стандартов безопасности.

Разнообразные результаты среди компаний

Отчет FLI оценил компании по следующим критериям: оценка рисков, текущий ущерб, системы безопасности, экзистенциальная безопасность, управление, ответственность и обмен информацией.

  • Anthropic, OpenAI и Google DeepMind получили похвалу за прозрачность и исследования в области безопасности, но все еще имеют недостатки. Переход Anthropic к обучению на основе взаимодействия с пользователями вызывает опасения по поводу конфиденциальности. OpenAI подвергается критике за лоббирование против законодательства и отсутствие независимого надзора. Зависимость Google DeepMind от оплаченных внешних оценщиков ставит под сомнение объективность.
  • xAI опубликовала свою первую систему безопасности, хотя рецензенты сочли ее ограниченной.
  • Z.ai допускает нецензурированные внешние оценки, но не обеспечивает полной прозрачности в своей структуре управления.
  • Meta ввела пороговые значения безопасности, основанные на результатах, но требует более четких методологий.
  • DeepSeek не предоставляет базовую документацию по безопасности, несмотря на поддержку внутри компании.
  • Alibaba Cloud вносит вклад в национальные стандарты, но должна улучшить надежность и надежность своих моделей.

Эти выводы показывают, что даже ведущие компании сталкиваются с трудностями при внедрении комплексных мер безопасности. Недавние скандалы, связанные с психологическим вредом, кибератаками и даже самоубийствами с помощью ИИ, демонстрируют реальные последствия этих пробелов.

Широкая оппозиция неконтролируемому сверхинтеллекту

Растущие риски вызвали беспрецедентную реакцию. В октябре тысячи общественных деятелей из разных политических кругов — включая бывшего стратега Трампа Стива Бэннона, бывшего советника по национальной безопасности Сьюзен Райс и религиозных лидеров — подписали петицию с призывом к ИИ-компаниям замедлить свои усилия по достижению сверхинтеллекта.

Необычный союз подчеркивает общую обеспокоенность тем, что неконтролируемый ИИ может уничтожить рабочие места, усугубить экономическое неравенство и в конечном итоге подорвать человеческую автономию. Как отметил один эксперт, «сверхинтеллект сделает невозможным зарабатывание на жизнь для каждого рабочего». Это совпадение страха со стороны левых трудовых движений и правых популистских сил говорит о том, что проблема выходит за рамки традиционных идеологических разногласий.

Текущая траектория развития ИИ представляет значительные риски, и без существенных улучшений в системах безопасности и регулировании потенциал для катастрофических последствий остается опасно высоким.