OpenAI Lança GPT-5.4 Mini e Nano — Qualidade Quase Flagship com Preço Menor
OpenAI lançou GPT-5.4 mini e nano — versões leves da família GPT-5.4 para tarefas rápidas e em larga escala. Mini quase alcança o modelo tamanho completo em vár

17 марта 2026 года OpenAI представила GPT-5.4 mini и GPT-5.4 nano — две компактные версии семейства GPT-5.4 для задач, где важны скорость, цена и возможность запускать модель массово. Главная интрига в том, что mini в нескольких ключевых тестах подобралась к полноразмерной GPT-5.4 заметно ближе, чем обычно ждут от «облегчённой» модели.
Почти флагман GPT-5.4 mini позиционируется не как урезанный
компромисс, а как рабочая модель для реальных продуктов. По данным OpenAI, на SWE-Bench Pro она набрала 54,4% против 57,7% у полной GPT-5.4, а на OSWorld-Verified — 72,1% против 75,0%.
Разрыв есть, но он уже не выглядит пропастью. При этом mini работает более чем вдвое быстрее GPT-5 mini предыдущего поколения, что для пользовательских сценариев часто важнее нескольких дополнительных пунктов в бенчмарке. Младшая GPT-5.
4 nano идёт ещё дальше в сторону эффективности. OpenAI называет её самой маленькой и дешёвой версией GPT-5.4 и рекомендует для классификации, извлечения данных, ранжирования и простых субагентов для кода.
Это не модель для всего, а скорее строительный блок для больших систем, где один сильный агент планирует работу, а набор маленьких и быстрых моделей закрывает рутину. Именно такой подход сейчас всё активнее выходит из лабораторий в прикладные сервисы.
Где это пригодится
Смысл релиза не только в новых названиях, а в смещении акцента: всё больше AI-продуктов упираются не в максимальное качество ответа, а в баланс между качеством, задержкой и стоимостью каждого запроса. Если модель отвечает быстро, нормально пользуется инструментами и не ломается на мультимодальных задачах, она часто приносит бизнесу больше пользы, чем тяжёлый флагман, который думает дольше и обходится дороже. Для сервисов с большим числом обращений это сразу превращается в экономику продукта и удержание пользователя.
- AI-помощники для кода с быстрыми правками и отладкой Субагенты, которые параллельно ищут по кодовой базе и документам Системы computer use, читающие скриншоты и интерфейсы Мультимодальные приложения, работающие с текстом и изображениями в реальном времени Массовые фоновые задачи вроде классификации и извлечения полей OpenAI отдельно подчёркивает сценарии с несколькими моделями разного класса. В такой схеме крупная модель берёт на себя планирование, координацию и финальную проверку, а mini или nano выполняют узкие подзадачи в параллели. Для разработчиков это означает более дешёвую оркестрацию без полной потери качества. Для конечного пользователя — более отзывчивые продукты, где AI перестаёт ощущаться медленным и тяжёлым. И это важнее любого разового скачка в сухом бенчмарке.
Цены и доступность У GPT-5.4 mini довольно широкая зона применения.
Модель доступна в API, Codex и ChatGPT, поддерживает текстовые и визуальные входы, tool use, function calling, web search, file search, computer use и skills. Контекстное окно — 400 тысяч токенов. Цена — $0,75 за миллион входных токенов и $4,50 за миллион выходных.
В Codex mini расходует только 30% квоты GPT-5.4, поэтому её можно использовать для более дешёвых вспомогательных задач и параллельных субагентов. GPT-5.
4 nano доступна только через API и стоит ещё меньше: $0,20 за миллион входных токенов и $1,25 за миллион выходных. В ChatGPT mini уже доступна пользователям Free и Go через режим Thinking, а для остальных может использоваться как fallback для GPT-5.4 Thinking.
На практике это разделяет линейку очень чётко: mini становится массовой рабочей моделью для повседневных продуктов, а nano — утилитарным мотором для простых, частых и дешёвых операций на бэкенде.
Что это значит
Запуск GPT-5.4 mini и nano показывает, что гонка моделей переходит в новую фазу: выигрывать будут не только самые сильные, но и те, которые дают почти флагманский результат при низкой цене и малой задержке. Для рынка это сигнал, что следующая волна AI-продуктов будет строиться не вокруг одной «самой умной» модели, а вокруг связок из больших и маленьких. Именно такие связки, а не одиночные супер-модели, будут определять следующий цикл прикладного AI.