Nvidia presenta Vera Rubin: siete chips y una plataforma completa para fábricas de AI
Nvidia anunció Vera Rubin no como otro GPU, sino como un stack completo para fábricas de AI: Rubin GPU, Vera CPU, NVLink 6, ConnectX-9, BlueField-4, Spectrum-6

Nvidia показала не один ускоритель Vera Rubin, а целую платформу для ИИ-фабрик: от GPU и CPU до сетевых интерфейсов, DPU, систем хранения и Ethernet-коммутаторов. Компания подаёт это как следующий этап после Blackwell — инфраструктуру, где стойки и кластеры проектируются как единый суперкомпьютер под агентский ИИ.
Платформа целиком Вместо анонса очередного «самого быстрого GPU»
Nvidia представила полный стек из семи чипов и нескольких типов стоек, которые закрывают разные стадии работы с ИИ: предобучение, постобучение, test-time scaling и инференс агентских систем. В центре платформы — GPU Rubin и CPU Vera, а вокруг них построены NVLink 6, ConnectX-9 SuperNIC, BlueField-4, Spectrum-6 и инференс-ускорители Groq 3 LPX. По замыслу компании, всё это должно работать не как набор разрозненных серверов, а как один связанный вычислительный контур.
Nvidia отдельно подчёркивает сдвиг от штучных серверов к POD- и rack-scale системам. Логика простая: современные модели и ИИ-агенты упираются не только в ускорители, но и в сеть, память, хранение KV-кэша, охлаждение и энергопотребление. Поэтому Vera Rubin продаётся не как один чип, а как архитектура для целой фабрики ИИ, которую можно собирать из готовых модулей под нужный тип нагрузки и бюджет.
«Vera
Rubin — это скачок поколения: семь прорывных чипов, пять стоек и один гигантский суперкомпьютер».
Что входит в стек
Базовая конфигурация Vera Rubin NVL72 объединяет 72 GPU Rubin и 36 CPU Vera в одной стойке. Компоненты связаны через NVLink 6, а за сетевую связность и разгрузку инфраструктурных задач отвечают ConnectX-9 и BlueField-4. Nvidia утверждает, что такая система обучает крупные mixture-of-experts модели, используя вчетверо меньше GPU, чем платформа Blackwell, а в инференсе даёт до 10 раз больше пропускной способности на ватт при десятикратно более низкой цене токена.
Вокруг этой стойки компания собрала ещё несколько специализированных блоков: Vera CPU Rack — до 256 процессоров Vera для reinforcement learning и агентских нагрузок Groq 3 LPX Rack — 256 LPU-чипов для низколатентного инференса и длинного контекста BlueField-4 STX — слой хранения и обработки KV-кэша для моделей и агентов Spectrum-6 SPX — Ethernet-стойка для быстрого обмена данными между узлами * Quantum-X800 / Spectrum-X — масштабирование кластеров между стойками Отдельный акцент сделан на CPU-стойке Vera: она рассчитана на сценарии, где агентам нужно не просто сгенерировать ответ, а многократно проверить варианты действий во внешних средах. По данным Nvidia, Vera даёт результаты на 50% быстрее традиционных CPU и вдвое эффективнее по энергопотреблению. Для инференса длинноконтекстных моделей компания добавила Groq 3 LPX: 256 LPU в стойке, 128 Гбайт SRAM на кристалле и до 640 Тбайт/с внутренней пропускной способности.
Экономика и масштаб Самая важная часть анонса — не список компонентов, а экономика эксплуатации.
Nvidia обещает до 35 раз выше пропускную способность инференса на мегаватт при связке Vera Rubin с Groq 3 LPX, а BlueField-4 STX должен ускорять операции с KV-кэшем до пяти раз по сравнению с более традиционной архитектурой хранения. Для Ethernet-сети Spectrum-6 компания заявляет до пятикратного роста оптической энергоэффективности и десятикратного повышения надёжности при использовании co-packaged optics. Вместе с железом Nvidia представила платформу DSX для дата-центров Vera Rubin.
Версия DSX Max-Q, по заявлению компании, позволяет разместить до 30% больше ИИ-инфраструктуры в ЦОД с тем же лимитом по питанию, а DSX Flex — использовать энергосистему дата-центра как более гибкий актив. Партнёрские поставки продуктов на базе Vera Rubin должны стартовать во второй половине 2026 года. Среди первых партнёров названы AWS, Google Cloud, Microsoft Azure, Oracle Cloud, CoreWeave, Lambda, Together AI, а также Dell, HPE, Lenovo и Supermicro.
Что это значит
Nvidia всё дальше уходит от продажи отдельных ускорителей и всё ближе к роли поставщика полной архитектуры для ИИ-фабрик. Для рынка это сигнал, что конкуренция будет идти уже не только по мощности GPU, но и по цене токена, эффективности сети, работе с памятью и тому, насколько быстро можно развернуть целый кластер под агентский ИИ.