ZDNet AI→ оригинал

Nvidia تريد تغطية كامل stack لمركز بيانات AI — من الشرائح إلى الشبكات والتخزين

في GTC 2026، عرضت Nvidia رهانها الجديد: ألا تبيع مجرد وحدات GPU، بل مركز بيانات AI كاملًا لأحمال AI الخاصة بالشركات. ويضم هذا stack Vera Rubin، ورفوف CPU مخصصة،

Nvidia تريد تغطية كامل stack لمركز بيانات AI — من الشرائح إلى الشبكات والتخزين
Источник: ZDNet AI. Коллаж: Hamidun News.

Nvidia на GTC 2026 показала, что больше не хочет быть просто поставщиком GPU. Компания предлагает заказчикам целый AI-дата-центр как единый продукт — от вычислений и сетей до хранения контекста и управляющего софта.

Ставка на вертикаль

Главный сигнал с презентации Дженсена Хуанга был не в одном новом новом чипе, а в архитектуре бизнеса. Nvidia выстроила на сцене линейку стоек и фактически сказала рынку: AI-инфраструктура будет дешевле, быстрее и прибыльнее, если брать не отдельные компоненты, а весь стек у одного поставщика. Это уже не модель «мы продаём ускорители, а остальное собирайте сами», а попытка превратить дата-центр в полностью спроектированную Nvidia систему.

Хуанг давно продвигает идею AI factory — фабрики, которая производит токены и интеллект так же, как завод производит детали. Теперь эта идея стала ещё жёстче: Nvidia хочет контролировать не только вычисления, но и сеть, память, хранение промежуточных данных, CPU-слой и ПО, которое всё это связывает. На фоне бума агентных систем такой подход выглядит логично: узким местом становятся уже не только GPU, но и всё, что двигает данные между ними.

Что вошло в стек В новой конфигурации

Nvidia собрала несколько стоек, каждая из которых закрывает отдельную проблему в AI-дата-центре. Вместе они образуют почти полный конструктор для компаний, которые строят крупные кластеры для обучения и инференса и не хотят сводить десятки разнородных поставщиков в одну схему.

  • Vera Rubin NVL72 — флагманская rack-scale система с 72 GPU Rubin и 36 CPU Vera.
  • Vera CPU Rack — отдельная стойка на 256 CPU для задач вокруг агентного AI, где важны tool calling, SQL и исполнение кода.
  • BlueField-4 STX — слой хранения и быстрой выдачи KV-кэша, который нужен большим языковым моделям при инференсе.
  • Spectrum-6 SPX — новая Ethernet-сеть для связи стоек и масштабирования кластера.
  • Groq 3 LPX — inference-стойка с 256 LPU-ускорителями и упором на низкую задержку и большой контекст. Смысл этой сборки в том, что Nvidia теперь продаёт не только «лошадиную силу» в виде GPU. Она закрывает те части системы, на которых обычно теряются миллисекунды, ватты и деньги: перенос данных между чипами, работа с контекстом, сетевые задержки, CPU-задачи для агентов и общая балансировка нагрузки. Чем крупнее модель и чем больше у неё контекст, тем заметнее такие накладные расходы.

Где Nvidia ищет выгоду Самый заметный аргумент Nvidia — экономика инференса.

Компания утверждает, что связка Vera Rubin и Groq 3 LPX уменьшает число обращений к внешней DRAM за счёт большого объёма SRAM в LPU, а значит снижает задержку и ускоряет выдачу токенов. По заявлениям Nvidia, такая схема может дать до 35 раз больше пропускной способности на мегаватт для моделей с триллионами параметров и до 10 раз больше выручки на ватт в сценариях с дорогими «премиальными» токенами.

«То, что раньше требовало целого дня запросов, теперь будет делаться меньше чем за час».

Отдельная ставка сделана на CPU-слой. Nvidia прямо говорит, что даже в эпоху GPU агенты постоянно упираются в обычные вычислительные задачи: вызов инструментов, SQL-запросы, компиляцию и sandbox-исполнение кода. Поэтому компания выводит в центр собственные Vera CPU и добавляет рядом DPU и специализированное хранилище контекста. Это расширяет амбиции Nvidia далеко за пределы ускорителей и показывает, что компания хочет забрать себе всё больше маржи в AI-инфраструктуре.

Что это значит

Для рынка это ещё один шаг к вертикально собранным AI-дата-центрам, где один вендор отвечает почти за всё. Для клиентов такая модель может дать более простое внедрение и лучшую эффективность, но ценой более сильной зависимости от Nvidia. Для конкурентов — от CPU- и сетевых игроков до поставщиков систем хранения — это сигнал, что Nvidia больше не играет только на поле GPU.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…