Ars Technica→ оригинал

OpenAI presentó un modelo ultrarrápido para programación para sortear los chips de Nvidia

OpenAI anunció GPT-5.3-Codex-Spark, un modelo de lenguaje especializado en la escritura de código que muestra una mejora de rendimiento de 15 veces. El logro cl

OpenAI presentó un modelo ultrarrápido para programación para sortear los chips de Nvidia
Источник: Ars Technica. Коллаж: Hamidun News.
◐ Слушать статью1 мин
0:00
—:—

OpenAI представила GPT-5.3-Codex-Spark — специализированную модель для генерации кода, которая работает в 15 раз быстрее предыдущей версии. Но настоящая новость заключается не столько в скорости, сколько в том, как этого удалось добиться: компания оптимизировала архитектуру под нестандартные чипы размером с тарелку, фактически обойдя критическую зависимость от дефицитных графических процессоров Nvidia. Этот ход демонстрирует стремление OpenAI взять под контроль весь стек — от программного обеспечения до физического «железа» — и одновременно подчёркивает растущее противостояние на рынке специализированных ИИ-процессоров.

В последние два года для всех крупных ИИ-компаний Nvidia стала чем-то вроде узкого места. GPU H100 и A100, ставшие стандартом для обучения больших языковых моделей, пользуются огромным спросом, а предложение отстаёт. Цены кусаются, поставки задерживаются, и геополитические ограничения всё усложняют. OpenAI, Meta, Google — все они ищут способы либо уменьшить зависимость от Nvidia, либо оптимизировать использование имеющихся ресурсов. Компания Elon Musk x.AI недавно анонсировала собственный чип, то же делает Apple с её Neural Engine, а Amazon инвестирует в процессоры Trainium и Inferentia. Рынок раскалывается на фрагменты, и OpenAI решила не отставать.

GPT-5.3-Codex-Spark — это целевая разработка. Если универсальные модели вроде GPT-4o должны справляться со множеством задач, то Codex ориентирован на одно: писать код максимально быстро и точно. Это позволило инженерам OpenAI провести существенную оптимизацию. Архитектуру переработали под специфику кодирования, убрали излишние вычислительные слои, переструктурировали тензорные операции. Результат — тот же качественный выход при нижайших вычислительных затратах. Но главное изменение касалось аппаратного слоя. OpenAI разработала или переосмыслила под себя нестандартные чипы, которые работают с такой архитектурой как родные. Эти процессоры компактнее стандартных GPU, проще интегрируются, требуют меньше электроэнергии и охлаждения — всё то, что делает дата-центры дешевле и устойчивее к сбоям.

15-кратный прирост производительности впечатляет, но цифра требует контекста. Скорее всего, это не означает, что модель выполняет прямые вычисления в 15 раз быстрее. Речь идёт об end-to-end времени генерации кода — от запроса пользователя до готового вывода. Здесь улучшения складываются: оптимизированная архитектура, специализированные чипы, переработанный пайплайн обработки. Это типичный для ИИ-индустрии подход: максимально эффективный алгоритм на максимально эффективном железе даёт максимальный результат.

Для индустрии это означает несколько вещей сразу. Во-первых, давление на Nvidia усиливается. Если другие компании начнут успешно использовать собственные чипы, спрос на GPU может упасть. Во-вторых, это усиливает тренд на вертикальную интеграцию в ИИ-лабораториях. Apple, Google, Meta и теперь OpenAI — все они разрабатывают собственные чипы. В-третьих, для разработчиков это хорошая новость: более быстрый и дешёвый код-генератор может снизить стоимость использования API и сделать ИИ-помощников доступнее.

Но полностью от Nvidia OpenAI не избавится. Универсальные модели всё ещё требуют мощных GPU при обучении. Собственные чипы OpenAI, похоже, оптимизированы именно для inference — запуска уже обученных моделей. Это логично: обучение случается редко, а запросы от пользователей приходят постоянно. OpenAI нашла способ взять под контроль именно тот слой, где можно заработать на масштабе. И это правильный стратегический ход.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…