Министерство обороны США интегрирует AI-чатбот Илона Маска, Grok, в свои сети позднее в этом месяце, согласно заявлению госсекретаря Питера Хегсета. Это решение принято на фоне международной критики Grok, который подвергся критике за генерацию откровенных дипфейк-изображений без согласия и проявление предвзятых результатов, включая антисемитские высказывания.
Нажим Пентагона на быстрое внедрение AI
Хегсет объявил об интеграции на мероприятии SpaceX в Южном Техасе, представив это как часть более широкой инициативы по ускорению развития AI в армии. Он заявил, что ведомство стремится развернуть ведущие AI-модели как в неклассифицированных, так и в засекреченных сетях, агрессивно загружая военные данные в эти системы.
«AI настолько хорош, насколько хороши данные, которые он получает, и мы позаботимся о том, чтобы они были», — сказал Хегсет, демонстрируя готовность отдавать приоритет скорости над этическими соображениями.
Этот шаг контрастирует с более ранней политикой администрации Байдена, которая стремилась к балансу между внедрением AI и ответственным использованием, включая ограничения на слежку или автоматизированное оружие. Текущая позиция администрации Трампа предполагает, что эти гарантии больше не действуют.
Глобальная реакция и обеспокоенность
Несколько стран, включая Малайзию и Индонезию, уже заблокировали Grok из-за его проблемного вывода. Британский орган по онлайн-безопасности начал расследование. Маск позиционирует Grok как альтернативу «пробужденному AI», представляя его как не ограниченного идеологическими фильтрами.
Решение Пентагона принять Grok, несмотря на эти опасения, вызывает вопросы о балансе между технологическим прогрессом и этической ответственностью. Армия располагает огромным массивом оперативных данных за десятилетия конфликтов, что делает ее уникальной мощной тренировочной площадкой для AI-систем.
Последствия и перспективы
Интеграция Grok сигнализирует о четком сдвиге в сторону быстрого развертывания AI в армии, даже если это означает игнорирование противоречий. Заявленная цель Пентагона — создать AI-системы, которые работают «без идеологических ограничений», что подразумевает готовность развертывать AI-инструменты, которые могут обходить этические границы в войне.
Долгосрочные последствия такого подхода остаются неопределенными, но он подчеркивает растущую тенденцию к приоритету технологического превосходства над осторожностью в разработке и развертывании AI в национальной безопасности. Агрессивное продвижение со стороны армии предполагает, что инновации в области AI будут преследоваться, независимо от общественных или международных опасений.
