Ведущие мировые компании в области искусственного интеллекта (ИИ) не соответствуют даже собственным заявленным стандартам безопасности, предупреждает новый отчет. Отсутствие надзора усиливается по мере ускорения гонки к искусственному общему интеллекту (AGI) и сверхинтеллекту — ИИ, превосходящему человеческий интеллект, — что повышает потенциал для «катастрофического» злоупотребления или потери контроля.
Риски опережают регулирование
Индекс безопасности ИИ за зиму 2025 года, опубликованный Институтом будущего жизни (FLI), оценил восемь крупных ИИ-компаний: Anthropic, OpenAI, Google DeepMind, xAI, Meta, DeepSeek, Alibaba Cloud и Z.ai. Оценка показала, что ни одна компания не имеет проверяемого плана поддержания человеческого контроля над все более мощными ИИ-системами.
Независимые эксперты подчеркивают неотложность ситуации: компании утверждают, что могут создавать сверхинтеллектуальный ИИ, но ни одна из них не может продемонстрировать, как предотвратить потерю контроля. Как выразился один ученый-компьютерщик из Калифорнийского университета в Беркли, ИИ-компании в настоящее время не могут гарантировать уровень риска, сопоставимый со стандартами ядерной безопасности. Некоторые оценки указывают на то, что риск неконтролируемого ИИ высок, как один к трем, что считается неприемлемым по отраслевым стандартам.
Это несоответствие между возможностями и контролем критично, потому что ИИ развивается беспрецедентными темпами. То, что когда-то считалось делом десятилетий — сверхинтеллект, — по оценкам некоторых, может наступить уже в течение нескольких лет. Между тем, регулирование ИИ остается слабым. В США ИИ регулируется слабее, чем сэндвичи, при этом технологические компании активно лоббируют против обязательных стандартов безопасности.
Разнообразные результаты среди компаний
Отчет FLI оценил компании по следующим критериям: оценка рисков, текущий ущерб, системы безопасности, экзистенциальная безопасность, управление, ответственность и обмен информацией.
- Anthropic, OpenAI и Google DeepMind получили похвалу за прозрачность и исследования в области безопасности, но все еще имеют недостатки. Переход Anthropic к обучению на основе взаимодействия с пользователями вызывает опасения по поводу конфиденциальности. OpenAI подвергается критике за лоббирование против законодательства и отсутствие независимого надзора. Зависимость Google DeepMind от оплаченных внешних оценщиков ставит под сомнение объективность.
- xAI опубликовала свою первую систему безопасности, хотя рецензенты сочли ее ограниченной.
- Z.ai допускает нецензурированные внешние оценки, но не обеспечивает полной прозрачности в своей структуре управления.
- Meta ввела пороговые значения безопасности, основанные на результатах, но требует более четких методологий.
- DeepSeek не предоставляет базовую документацию по безопасности, несмотря на поддержку внутри компании.
- Alibaba Cloud вносит вклад в национальные стандарты, но должна улучшить надежность и надежность своих моделей.
Эти выводы показывают, что даже ведущие компании сталкиваются с трудностями при внедрении комплексных мер безопасности. Недавние скандалы, связанные с психологическим вредом, кибератаками и даже самоубийствами с помощью ИИ, демонстрируют реальные последствия этих пробелов.
Широкая оппозиция неконтролируемому сверхинтеллекту
Растущие риски вызвали беспрецедентную реакцию. В октябре тысячи общественных деятелей из разных политических кругов — включая бывшего стратега Трампа Стива Бэннона, бывшего советника по национальной безопасности Сьюзен Райс и религиозных лидеров — подписали петицию с призывом к ИИ-компаниям замедлить свои усилия по достижению сверхинтеллекта.
Необычный союз подчеркивает общую обеспокоенность тем, что неконтролируемый ИИ может уничтожить рабочие места, усугубить экономическое неравенство и в конечном итоге подорвать человеческую автономию. Как отметил один эксперт, «сверхинтеллект сделает невозможным зарабатывание на жизнь для каждого рабочего». Это совпадение страха со стороны левых трудовых движений и правых популистских сил говорит о том, что проблема выходит за рамки традиционных идеологических разногласий.
Текущая траектория развития ИИ представляет значительные риски, и без существенных улучшений в системах безопасности и регулировании потенциал для катастрофических последствий остается опасно высоким.

































