Nvidia veut couvrir toute la stack du data center AI — des puces au réseau et au stockage
À GTC 2026, Nvidia a présenté un nouveau pari : vendre non seulement des GPU, mais tout le data center AI pour les charges de travail AI d'entreprise. La stack

Nvidia на GTC 2026 показала, что больше не хочет быть просто поставщиком GPU. Компания предлагает заказчикам целый AI-дата-центр как единый продукт — от вычислений и сетей до хранения контекста и управляющего софта.
Ставка на вертикаль
Главный сигнал с презентации Дженсена Хуанга был не в одном новом новом чипе, а в архитектуре бизнеса. Nvidia выстроила на сцене линейку стоек и фактически сказала рынку: AI-инфраструктура будет дешевле, быстрее и прибыльнее, если брать не отдельные компоненты, а весь стек у одного поставщика. Это уже не модель «мы продаём ускорители, а остальное собирайте сами», а попытка превратить дата-центр в полностью спроектированную Nvidia систему.
Хуанг давно продвигает идею AI factory — фабрики, которая производит токены и интеллект так же, как завод производит детали. Теперь эта идея стала ещё жёстче: Nvidia хочет контролировать не только вычисления, но и сеть, память, хранение промежуточных данных, CPU-слой и ПО, которое всё это связывает. На фоне бума агентных систем такой подход выглядит логично: узким местом становятся уже не только GPU, но и всё, что двигает данные между ними.
Что вошло в стек В новой конфигурации
Nvidia собрала несколько стоек, каждая из которых закрывает отдельную проблему в AI-дата-центре. Вместе они образуют почти полный конструктор для компаний, которые строят крупные кластеры для обучения и инференса и не хотят сводить десятки разнородных поставщиков в одну схему.
- Vera Rubin NVL72 — флагманская rack-scale система с 72 GPU Rubin и 36 CPU Vera.
- Vera CPU Rack — отдельная стойка на 256 CPU для задач вокруг агентного AI, где важны tool calling, SQL и исполнение кода.
- BlueField-4 STX — слой хранения и быстрой выдачи KV-кэша, который нужен большим языковым моделям при инференсе.
- Spectrum-6 SPX — новая Ethernet-сеть для связи стоек и масштабирования кластера.
- Groq 3 LPX — inference-стойка с 256 LPU-ускорителями и упором на низкую задержку и большой контекст. Смысл этой сборки в том, что Nvidia теперь продаёт не только «лошадиную силу» в виде GPU. Она закрывает те части системы, на которых обычно теряются миллисекунды, ватты и деньги: перенос данных между чипами, работа с контекстом, сетевые задержки, CPU-задачи для агентов и общая балансировка нагрузки. Чем крупнее модель и чем больше у неё контекст, тем заметнее такие накладные расходы.
Где Nvidia ищет выгоду Самый заметный аргумент Nvidia — экономика инференса.
Компания утверждает, что связка Vera Rubin и Groq 3 LPX уменьшает число обращений к внешней DRAM за счёт большого объёма SRAM в LPU, а значит снижает задержку и ускоряет выдачу токенов. По заявлениям Nvidia, такая схема может дать до 35 раз больше пропускной способности на мегаватт для моделей с триллионами параметров и до 10 раз больше выручки на ватт в сценариях с дорогими «премиальными» токенами.
«То, что раньше требовало целого дня запросов, теперь будет делаться меньше чем за час».
Отдельная ставка сделана на CPU-слой. Nvidia прямо говорит, что даже в эпоху GPU агенты постоянно упираются в обычные вычислительные задачи: вызов инструментов, SQL-запросы, компиляцию и sandbox-исполнение кода. Поэтому компания выводит в центр собственные Vera CPU и добавляет рядом DPU и специализированное хранилище контекста. Это расширяет амбиции Nvidia далеко за пределы ускорителей и показывает, что компания хочет забрать себе всё больше маржи в AI-инфраструктуре.
Что это значит
Для рынка это ещё один шаг к вертикально собранным AI-дата-центрам, где один вендор отвечает почти за всё. Для клиентов такая модель может дать более простое внедрение и лучшую эффективность, но ценой более сильной зависимости от Nvidia. Для конкурентов — от CPU- и сетевых игроков до поставщиков систем хранения — это сигнал, что Nvidia больше не играет только на поле GPU.