Ars Technica→ оригинал

OpenAI представила сверхбыструю модель для кодинга в обход чипов Nvidia

OpenAI анонсировала GPT-5.3-Codex-Spark — специализированную языковую модель для написания кода, которая демонстрирует 15-кратный прирост производительности. Кл

OpenAI представила сверхбыструю модель для кодинга в обход чипов Nvidia
Источник: Ars Technica. Коллаж: Hamidun News.

OpenAI представила GPT-5.3-Codex-Spark — специализированную модель для генерации кода, которая работает в 15 раз быстрее предыдущей версии. Но настоящая новость заключается не столько в скорости, сколько в том, как этого удалось добиться: компания оптимизировала архитектуру под нестандартные чипы размером с тарелку, фактически обойдя критическую зависимость от дефицитных графических процессоров Nvidia. Этот ход демонстрирует стремление OpenAI взять под контроль весь стек — от программного обеспечения до физического «железа» — и одновременно подчёркивает растущее противостояние на рынке специализированных ИИ-процессоров.

В последние два года для всех крупных ИИ-компаний Nvidia стала чем-то вроде узкого места. GPU H100 и A100, ставшие стандартом для обучения больших языковых моделей, пользуются огромным спросом, а предложение отстаёт. Цены кусаются, поставки задерживаются, и геополитические ограничения всё усложняют. OpenAI, Meta, Google — все они ищут способы либо уменьшить зависимость от Nvidia, либо оптимизировать использование имеющихся ресурсов. Компания Elon Musk x.AI недавно анонсировала собственный чип, то же делает Apple с её Neural Engine, а Amazon инвестирует в процессоры Trainium и Inferentia. Рынок раскалывается на фрагменты, и OpenAI решила не отставать.

GPT-5.3-Codex-Spark — это целевая разработка. Если универсальные модели вроде GPT-4o должны справляться со множеством задач, то Codex ориентирован на одно: писать код максимально быстро и точно. Это позволило инженерам OpenAI провести существенную оптимизацию. Архитектуру переработали под специфику кодирования, убрали излишние вычислительные слои, переструктурировали тензорные операции. Результат — тот же качественный выход при нижайших вычислительных затратах. Но главное изменение касалось аппаратного слоя. OpenAI разработала или переосмыслила под себя нестандартные чипы, которые работают с такой архитектурой как родные. Эти процессоры компактнее стандартных GPU, проще интегрируются, требуют меньше электроэнергии и охлаждения — всё то, что делает дата-центры дешевле и устойчивее к сбоям.

15-кратный прирост производительности впечатляет, но цифра требует контекста. Скорее всего, это не означает, что модель выполняет прямые вычисления в 15 раз быстрее. Речь идёт об end-to-end времени генерации кода — от запроса пользователя до готового вывода. Здесь улучшения складываются: оптимизированная архитектура, специализированные чипы, переработанный пайплайн обработки. Это типичный для ИИ-индустрии подход: максимально эффективный алгоритм на максимально эффективном железе даёт максимальный результат.

Для индустрии это означает несколько вещей сразу. Во-первых, давление на Nvidia усиливается. Если другие компании начнут успешно использовать собственные чипы, спрос на GPU может упасть. Во-вторых, это усиливает тренд на вертикальную интеграцию в ИИ-лабораториях. Apple, Google, Meta и теперь OpenAI — все они разрабатывают собственные чипы. В-третьих, для разработчиков это хорошая новость: более быстрый и дешёвый код-генератор может снизить стоимость использования API и сделать ИИ-помощников доступнее.

Но полностью от Nvidia OpenAI не избавится. Универсальные модели всё ещё требуют мощных GPU при обучении. Собственные чипы OpenAI, похоже, оптимизированы именно для inference — запуска уже обученных моделей. Это логично: обучение случается редко, а запросы от пользователей приходят постоянно. OpenAI нашла способ взять под контроль именно тот слой, где можно заработать на масштабе. И это правильный стратегический ход.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…