По мере того как предприятия переходят от экспериментальных пилотных проектов с ИИ к полномасштабному внедрению, возникает парадокс: хотя стоимость отдельных операций ИИ стремительно падает, общие расходы на инфраструктуру растут. Главным драйвером этих изменений становится агентный ИИ — автономные системы, выполняющие сложные задачи, что требует принципиально иного подхода к управлению дата-центрами.
Для технологических лидеров проблема заключается уже не просто в покупке графических процессоров (GPU), а в управлении эффективностью всего стека технологий. Как объясняет Анино Сенгупта, вице-президент по продуктам в Nutanix, каждый сотрудник, использующий ИИ-ассистента, или каждый автоматизированный рабочий процесс генерирует постоянный поток запросов на вывод (inference). Эти запросы проходят через специализированные сети, потребляют циклы GPU и извлекают данные из систем хранения, разработанных специально для высоконагруженных рабочих процессов ИИ.
Парадокс Джевонса в действии
За последние два года стоимость одного токена — единицы измерения для обработки ИИ — снизилась примерно на порядок. Это улучшение обусловлено появлением более эффективных моделей и жесткой конкуренцией среди облачных провайдеров. Логично предположить, что корпоративный ИИ становится дешевле. Однако происходит обратное.
Это явление является классическим примером парадокса Джевонса : когда стоимость использования ресурса снижается, потребление растет быстрее, чем падает цена.
- Снижение цены: Стоимость за токен упала примерно в 10 раз.
- Рост потребления: Объем использования увеличился более чем в 100 раз.
Итогом становится значительный рост общих расходов. В результате стоимость за токен и уровень утилизации GPU стали критически важными операционными метриками для IT-отделов, ставящимися на один уровень с традиционными показателями, такими как время безотказной работы (uptime) и пропускная способность.
«Стоимость за токен — это, по сути, совокупная стоимость владения (TCO) при обслуживании моделей вывода. Утилизация же касается обеспечения того, чтобы, имея в распоряжении ресурсы GPU, вы получали от них максимальную отдачу». — Анино Сенгупта, Nutanix
Управление этими затратами сложно, поскольку переменные факторы постоянно меняются в зависимости от выбора модели, расположения рабочей нагрузки и структуры промптов. Оптимизация такой среды не интуитивна; это инженерная задача, требующая непрерывной настройки.
Агентный ИИ ломает традиционную инфраструктуру
Традиционная корпоративная инфраструктура создавалась для предсказуемых нагрузок и длительных циклов планирования. Агентный ИИ, однако, вводит в игру хаотичный профиль нагрузки, характеризующийся следующим:
- Непредсказуемые всплески: Кратковременные высокочастотные запросы на вывод, которые возникают без предупреждения.
- Новые требования к ресурсам: Сильная зависимость от топологии GPU, высокоскоростных межсоединений и параллельного хранения данных для памяти агентов и кэшей ключ-значение (KV).
- Быстрые циклы изменений: Среда, которая эволюционирует быстрее, чем позволяют типичные графики закупок.
Когда компоненты инфраструктуры — вычислительные мощности, сети и хранилища — управляются изолированно (в «силосах»), неэффективность накапливается. Организации часто обнаруживают, что они недоиспользуют дорогие GPU, одновременно сталкиваясь с узкими местами в пропускной способности хранилищ и сетей. Эта фрагментация увеличивает затраты и замедляет развертывание.
Случай в пользу интегрированной полностековой архитектуры
Для борьбы с этой неэффективностью поставщики инфраструктуры переходят на тесно интегрированные, валидированные полностековые платформы. Логика проста: сквозная оптимизация слоев вычислений, сетей и хранения обеспечивает лучшую утилизацию и меньшую стоимость за токен, чем сборка разрозненных компонентов «лучшего в своем классе».
Решение Nutanix для агентного ИИ является ярким примером такого подхода. Построенное на гипервизоре Nutanix AHV и платформе Kubernetes, оно предназначено для управления как традиционной оркестровкой, так и ускоренными вычислениями для вывода. Ключевые технические улучшения включают:
- Учет топологии при распределении ресурсов: Улучшения от NVIDIA автоматически оптимизируют то, как GPU, CPU, память и DPUs (блоки обработки данных) распределяются между виртуальными машинами.
- Перенос сетевых задач: Сетевые функции Nutanix Flow Virtual Networking переносятся на DPUs BlueField, что освобождает циклы GPU для фактической обработки ИИ, сохраняя при этом безопасность и пропускную способность.
- Единое развертывание: Решение поддерживает мгновенное развертывание микросервисов NVIDIA NIM и моделей с открытым исходным кодом (таких как Nemotron), а также интегрирует AI-шлюз для безопасного доступа к передовым облачным большим языковым моделям (LLM) от таких провайдеров, как Anthropic, Google и OpenAI.
Интегрируя эти слои, Nutanix стремится устранить изолированность, которая традиционно тормозит проекты по внедрению ИИ. Решение работает на инфраструктуре Cisco, позволяя организациям использовать существующие инвестиции в оборудование, одновременно достигая производительности, необходимой для масштабов массового внедрения.
Преодоление разрыва: команды платформы и разработчики
Значительным организационным напряжением в эпоху ИИ являются отношения между командами платформы (которые управляют инфраструктурой) и командами разработчиков (которые создают приложения на базе ИИ). Исторически эти группы работали с разными инструментами, приоритетами и временными рамками.
По мере масштабирования внедрения агентного ИИ эта динамика становится критической. Команды платформы должны предоставлять каталог возможностей ИИ с自助 (self-service) доступом, которые являются как соответствующими требованиям безопасности, так и гибкими. Успешными становятся организации, которые оптимизируют не только использование GPU, но и создают операционную модель, позволяющую быстро доставлять инфраструктуру.
«Зрелые команды ИИ будут отлично справляться не только с утилизацией GPU, но и с созданием операционной модели, которая обеспечивает быструю доставку ИИ-инфраструктуры, соответствующую темпам инноваций, которых хотят разработчики». — Анино Сенгупта
Организации, находящиеся дальше на пути внедрения ИИ, как правило, эффективнее управляют утилизацией GPU, поскольку у них установлены четкие механизмы подотчетности за расходы и операционные модели. Для тех, кто только начинает, решения об инфраструктуре, принимаемые сейчас, определят, смогут ли проекты по ИИ масштабироваться, не упираясь в финансовые или сложные технологические барьеры.
Операционная модель «ИИ-фабрики»
Формирующаяся рамка для корпоративного ИИ — это «ИИ-фабрика» — среда, специально созданная для производства и выполнения рабочих нагрузок ИИ в больших масштабах. Большинству организаций потребуется годами одновременно эксплуатировать как традиционные вычислительные мощности, так и ускоренные. Поэтому жизненно важна общая операционная модель, охватывающая оба парадигмы, не жертвуя при этом гибкостью.
Объединяя полностековое программное обеспечение Nutanix с инфраструктурой Cisco (на базе Intel и оптимизированной для NVIDIA), организации могут создать готовую к производству основу. Такой подход позволяет безопасно разделять «ИИ-фабрики» между тысячами агентов, достигая наименьшей возможной стоимости за токен.
В конечном счете, метрики, определяющие жизнеспособность инвестиций в ИИ — стоимость за токен, утилизация GPU и эффективность планирования — это метрики инфраструктуры. Грамотное управление ими больше не является опциональным; это обязательное условие для того, чтобы ИИ был не просто функциональным, но и финансово устойчивым.

































































