Habr AI→ оригинал

OpenAI, Google и Anthropic ускорили гонку ИИ-моделей, но рынок уже устал от шума

В феврале 2026-го OpenAI, Google, Anthropic, xAI и китайские лаборатории выпустили десятки новых моделей почти подряд. Но реальный сдвиг не в лишних 2% на бенчм

OpenAI, Google и Anthropic ускорили гонку ИИ-моделей, но рынок уже устал от шума
Источник: Habr AI. Коллаж: Hamidun News.

Февраль 2026 года превратился в конвейер релизов: OpenAI, Google, Anthropic, xAI и китайские лаборатории выпускали новые модели с интервалом в дни, а рынок уже считает сотни LLM от десятков организаций. На этом фоне важнее уже не сам факт очередного анонса, а вопрос, что из этой гонки реально меняет работу людей и компаний.

Почему все ускорилось

Три года назад между крупными релизами проходили месяцы, а теперь — иногда двое суток, как между GPT-5.3 и GPT-5.4.

На рынке уже больше 500 языковых моделей от 30+ организаций, и это хорошо показывает масштаб ускорения. Причин несколько. Во-первых, гонка перестала быть дуэлью OpenAI и Google: к ней полноценно подключились Anthropic, xAI, Meta, Mistral и китайские игроки вроде DeepSeek, Qwen, Zhipu и ByteDance.

Во-вторых, подешевели вычисления: эффективные архитектуры и новое железо снизили стоимость обучения и inference. В-третьих, у лидеров появились гигантские деньги, которые позволяют держать сразу несколько команд и параллельно развивать разные линейки моделей. Отдельный ускоритель — open source.

Когда Meta, Mistral и DeepSeek выкладывают модели с открытыми весами, проприетарным лабораториям приходится чаще доказывать, за что пользователь платит подписку. Китайские компании здесь особенно заметны: из-за ограничений на чипы они вынуждены искать более экономные методы обучения, а эти решения быстро попадают в открытую экосистему. В результате рынок живёт в режиме постоянного взаимного давления: закрытые модели быстрее релизятся, открытые быстрее догоняют, а пользователи получают всё более дешёвые и сильные инструменты.

Бенчмарки не равны пользе На бумаге всё выглядит впечатляюще.

Gemini 3.1 Pro ставит рекорды на GPQA и ARC-AGI-2, Claude Sonnet 4.6 обходит даже более дорогой Opus 4.

6 на офисных тестах, а GPT-5.4 лидирует в кодинге и агентных сценариях. Но разрыв между лучшими моделями уже не такой драматичный, как во времена GPT-4.

На большинстве практических задач это не пропасть, а несколько процентов, которые редко ощущаются конечным пользователем. Для команды, которая строит продукт, выбор всё чаще упирается не в абсолютное качество ответа, а в цену токена, задержку, стабильность и удобство API. Есть и более неприятная проблема: бенчмарки измеряют только те условия, которые в них заложены.

Решить экзаменационный вопрос по физике или пройти тест на генерацию кода — полезный сигнал, но это ещё не значит хорошо справляться с мутными, неполными и зависимыми от контекста задачами бизнеса. Поэтому рекорд на 2% не равен удвоению практической ценности. Не случайно главный совет в этой гонке звучит так: > Не гонитесь за последней моделью — гонитесь за результатом.

Дальше начинается реальность продакшена. Пилотов много, зрелых внедрений мало: только 11% компаний довели ИИ-агентов до полноценного продакшена, хотя 38% уже экспериментируют с пилотами. Руководители признают рост продуктивности, но гораздо реже могут показать сильный ROI или изменение бизнес-модели.

Универсальные агенты всё ещё ошибаются, зацикливаются и плохо работают без контроля. Отсюда и нарастающая AI fatigue: рынок устал от обещаний, которые в демо выглядят лучше, чем в реальной операционке.

Где эффект уже виден При этом полезность есть, и она вполне измерима.

В разработке специализированные модели ускоряют генерацию и рефакторинг кода, а ассистенты внутри IDE давно стали рабочим инструментом, а не игрушкой. В анализе документов большие контекстные окна позволяют за один проход разбирать контракты, отчёты и исследовательские материалы, оставляя человеку финальную проверку. Отдельный фронт — наука: reasoning-модели помогают искать новые структуры в математике, ускоряют поиск лекарств и анализ материалов. Плюс рынок резко двигается в сторону экономичности: сегодня не менее важен не рекорд модели, а цена за полезный результат.

  • Генерация и проверка кода Разбор длинных документов и отчётов Научные расчёты и поиск новых гипотез * Дешёвые lite-модели для массовых сценариев Самый недооценённый сдвиг 2026 года — удешевление сильных моделей. Когда решения уровня Sonnet приближаются к Opus, а быстрые версии вроде Flash-Lite режут цену и задержку на порядок, ИИ перестаёт быть привилегией крупных команд. Это открывает сценарии, которые раньше просто не сходились по экономике: массовую обработку клиентских обращений, дешёвый first-pass для юристов и аналитиков, автоматизацию внутренней документации, кастомных помощников на данных компании. И вот здесь как раз начинается не маркетинг, а настоящая конкуренция за полезность.

Что это значит

Гонка моделей в 2026 году — это одновременно и реальный прогресс, и слой громкого маркетинга поверх него. Следить стоит не за тем, кто сегодня первый в таблице, а за тем, какие модели дешевле, надёжнее и лучше решают конкретную задачу в продакшене.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…