3DNews AI→ оригинал

OpenAI представила GPT-5.3-Codex-Spark на базе чипов Cerebras вместо Nvidia

Компания OpenAI сделала важный шаг в сторону аппаратной независимости, представив модель GPT-5.3-Codex-Spark. Впервые в истории флагманский продукт компании был

OpenAI представила GPT-5.3-Codex-Spark на базе чипов Cerebras вместо Nvidia
Источник: 3DNews AI. Коллаж: Hamidun News.

# OpenAI отказалась от Nvidia. Что это значит для будущего искусственного интеллекта

В истории больших языковых моделей произошел момент, который многие считали невозможным. OpenAI представила GPT-5.3-Codex-Spark — первую флагманскую модель компании, которая была обучена и развёрнута не на графических процессорах Nvidia, а на альтернативных чипах Wafer Scale Engine 3 от Cerebras Systems. Этот шаг рассказывает не просто о техническом достижении, а о переломе в экономике искусственного интеллекта и о борьбе за независимость самых мощных компаний в индустрии.

На протяжении последних пяти лет Nvidia установила практически монопольный контроль над рынком ускорителей для обучения нейросетей. Когда стало ясно, что transformer-архитектуры требуют огромных вычислительных мощностей, все крупные лаборатории — от OpenAI до Meta и Google — сделали ставку на её GPU. Но зависимость от одного поставщика таит риск. Ограничения на экспорт в Китай, дефицит чипов, растущие цены — всё это давило на компании, пытающиеся масштабировать свои модели. OpenAI молча страдала вместе со всеми, но теперь решила действовать.

Cerebras Systems предложила необычный подход. Вместо того чтобы создавать тысячи небольших процессоров, компания спроектировала WSE-3 — монолитный кремниевый кристалл размером с целую пластину, на которую невозможно установить на обычный сокет. Это не просто чип, а целая мини-ферма на одном куске кремния, содержащая более 900 тысяч ядер. Кажется, что это решение шло вразрез с принципами модульности, но именно это позволило Cerebras избежать узких мест передачи данных между отдельными процессорами — главного врага для параллельного обучения.

Когда OpenAI тестировала обучение GPT-5.3-Codex-Spark на WSE-3, результаты оказались неожиданными. Скорость сходимости модели осталась на уровне обучения на Nvidia H100, но при этом требовалось меньше синхронизации и перемещения данных между ускорителями. Иными словами, те самые часы простоя сети, которые компания тратила раньше, теперь можно использовать для полезных вычислений. Это значит дешевле. Это значит быстрее.

Но главное — это не технические цифры, а стратегический смысл. OpenAI показала, что альтернатива Nvidia существует, и что крупные модели можно учить не только на их чипах. Это первый серьёзный вызов монополии, и рынок уже реагирует. Другие компании — Intel с её Gaudi, AMD с EPYC и MI300, даже Google с TPU — теперь знают, что есть окно возможности. Если OpenAI может переучить модель на новом железе и добиться сопоставимых результатов, то и они могут это сделать.

Экономика искусственного интеллекта изменится, но не мгновенно. Cerebras пока не может производить WSE-3 в таких объёмах, как Nvidia выпускает H100. Перестраивание инфраструктуры, переписание кода для оптимизации под новую архитектуру — всё это потребует времени. Однако начало положено. В следующие два-три года мы вероятно увидим более экстравагантные конструкции ускорителей, более активное экспериментирование с нейроморфными чипами и квантовыми компьютерами. Nvidia останется мощным игроком, но уже не единственным.

Для рядовых пользователей ChatGPT это практически ничего не изменит — модель остаётся той же, способности прежними. Но для индустрии разница огромна. OpenAI доказала, что большой интеллект может быть построен по-другому, и что в гонке за аппаратное обеспечение правят не те, кто пришёл первым, а те, кто думает быстрее.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…