3DNews AI→ оригинал

OpenAI présente GPT-5.4 mini et nano pour le code, les sous-agents et les charges de travail AI à grande échelle

OpenAI a lancé GPT-5.4 mini et nano, des versions compactes de son modèle phare pour les tâches où la vitesse et le coût sont déterminants. Mini est plus de deu

OpenAI présente GPT-5.4 mini et nano pour le code, les sous-agents et les charges de travail AI à grande échelle
Источник: 3DNews AI. Коллаж: Hamidun News.

OpenAI выпустила GPT-5.4 mini и GPT-5.4 nano — две компактные версии своей флагманской линейки, рассчитанные не на рекордные рассуждения, а на быстрые и массовые рабочие сценарии. Компания делает ставку на модели, которые дешевле, быстрее и при этом сохраняют заметную часть возможностей полноразмерной GPT-5.4.

Чем сильна mini GPT-5.4 mini — старшая из двух новинок.

По данным OpenAI, она заметно прибавила по сравнению с GPT-5 mini в программировании, логике, работе с инструментами и мультимодальном анализе, а по скорости стала больше чем в два раза быстрее. На бенчмарке SWE-Bench Pro модель набрала 54,4% против 45,7% у GPT-5 mini, а в OSWorld-Verified, где проверяется умение работать с интерфейсами по скриншотам, показала 72,1% против 42,0% у предыдущей mini-версии. Это важно не только для красивых графиков.

OpenAI прямо позиционирует GPT-5.4 mini как рабочую модель для задач, где задержка чувствуется пользователю: автодополнение и правки кода, быстрые циклы отладки, субагенты для вспомогательных операций, а также системы, которые читают скриншоты и взаимодействуют с интерфейсом. Идея простая: не каждую задачу нужно отдавать самой дорогой модели, если меньшая версия справляется почти так же, но заметно быстрее.

Где пригодится nano GPT-5.4 nano — самая маленькая и дешёвая модель в новой линейке.

OpenAI рекомендует её не как универсальный чат-движок, а как утилитарный инструмент для простых, но частых операций. Это сценарии, где важнее throughput, чем глубина рассуждений: разбор потока документов, классификация, извлечение полей, ранжирование результатов и поддержка простых кодовых подзадач. Даже nano на SWE-Bench Pro набрала 52,4%, то есть тоже заметно обошла GPT-5 mini. Вместе mini и nano хорошо ложатся на архитектуру, где одна большая модель планирует работу, а несколько маленьких выполняют её параллельно. В Codex именно такой сценарий OpenAI и продвигает: GPT-5.4 может координировать процесс, а GPT-5.4 mini брать на себя узкие задачи вроде поиска по кодовой базе, чтения больших файлов и обработки документации. Такой разделённый подход помогает держать под контролем и задержку, и бюджет.

  • Быстрые AI-помощники для написания и правки кода Субагенты для поиска по репозиторию и анализа больших файлов Инструменты, которые понимают скриншоты и управляют интерфейсом Классификация, извлечение данных и ранжирование в массовых пайплайнах Более дешёвое выполнение вспомогательных задач без потери общего качества системы ## Доступ и цены По состоянию на 17 марта 2026 года GPT-5.4 mini доступна сразу в API, Codex и ChatGPT. В API модель поддерживает текст, изображения, вызов функций, web search, file search, computer use и skills. Контекстное окно составляет 400 тысяч токенов, а цена — 0,75 доллара за миллион входных и 4,50 доллара за миллион выходных токенов. Для сервисов с большим числом параллельных запросов это один из главных аргументов. В Codex mini расходует только 30% квоты полноразмерной GPT-5.4, поэтому её можно использовать для дешёвых параллельных подзадач. В ChatGPT модель получила более ограниченную роль: для пользователей Free и Go она доступна через режим Thinking, а для остальных служит fallback-вариантом, когда достигнут лимит GPT-5.4 Thinking. GPT-5.4 nano, в свою очередь, доступна только через API и стоит 0,20 доллара за миллион входных и 1,25 доллара за миллион выходных токенов.

Что это значит

OpenAI всё явнее строит линейку не вокруг одной «лучшей» модели, а вокруг набора ролей: большая модель думает и координирует, маленькие быстро делают рутину. Для разработчиков и AI-продуктов это хорошая новость: стоимость агентных систем можно снижать без резкого провала в качестве, особенно там, где важны скорость, параллельность и высокий объём запросов.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…