MarkTechPost→ оригинал

Qwen3-Coder-Next: 80 миллиардов параметров, которые влезут в ваш ПК

Пока все ждали GPT-5, команда Qwen без лишнего шума выкатила Qwen3-Coder-Next. Это open-weight модель с хитрой архитектурой: общий вес составляет внушительные 8

Qwen3-Coder-Next: 80 миллиардов параметров, которые влезут в ваш ПК
Источник: MarkTechPost. Коллаж: Hamidun News.

Индустрия ИИ сейчас напоминает гонку вооружений, где побеждал тот, у кого больше кластер GPU. Но пока гиганты вроде OpenAI и Google меряются облачными мощностями, китайская команда Qwen (Alibaba) продолжает методично захватывать территорию локальных вычислений. Их последний релиз — Qwen3-Coder-Next — выглядит как попытка переписать правила игры для разработчиков, которые предпочитают держать свой код (и свои нейросети) при себе.

Суть новости не в самом факте релиза, а в том, как инженеры решили проблему «умный, но тяжелый». Обычно, если вы хотите модель уровня GPT-4 на своем компьютере, вам нужно продать почку ради видеопамяти. Qwen3-Coder-Next построена на архитектуре Mixture-of-Experts (MoE) с гибридным вниманием. Номинально это монстр на 80 миллиардов параметров. Однако на практике для генерации каждого отдельного токена активируется всего 3 миллиарда. Это создает интересный парадокс: модель обладает «энциклопедическими знаниями» гиганта, но тратит ресурсы экономно, как легковес.

Почему это критически важно именно сейчас? Рынок смещается от простых чат-ботов к автономным агентам. Агент — это не просто «вопрос-ответ», это цикл: написать код, запустить, получить ошибку, переписать, проверить снова. Для таких циклов скорость и стоимость инференса имеют решающее значение. Запускать тяжелую плотную модель (dense model) на 70B+ параметров для каждого шага цикла отладки — это вычислительное самоубийство. Qwen3-Coder-Next решает эту задачу, предлагая высокую скорость реакции при сохранении глубокого контекста.

Отдельного внимания заслуживает упоминание «гибридного внимания» (hybrid attention). В контексте кодинга это обычно означает способность модели эффективно работать с огромными кусками кода — целыми репозиториями — не теряя нить рассуждения и не захлебываясь в потреблении памяти. Это делает модель пригодной не только для написания сниппетов, но и для рефакторинга архитектуры проектов.

Появление такой модели в открытом доступе (open-weight) ставит под удар бизнес-модели платных кодинг-ассистентов. Если разработчик может развернуть у себя локально агента, который пишет код не хуже облачного Copilot, но при этом не сливает данные на чужие сервера и работает без задержек сети, выбор становится очевидным. Qwen последовательно доказывает, что open-source (или, вернее, open-weight) сегмент развивается быстрее закрытых лабораторий.

Главное: Эпоха, когда для серьезного ИИ-кодинга требовался дата-центр, уходит. Qwen3-Coder-Next дает понять, что будущее за гибридными архитектурами, которые позволяют запускать «мозги» уровня Enterprise на локальном железе.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…