MarkTechPost→ оригинал

Alibaba libera Qwen3.6-35B-A3B — un modelo MoE multimodal centrado en la codificación orientada a agentes

Alibaba liberó los pesos de Qwen3.6-35B-A3B, un modelo MoE multimodal con 35.000 millones de parámetros totales y 3.000 millones activos. La novedad está pensad

Alibaba libera Qwen3.6-35B-A3B — un modelo MoE multimodal centrado en la codificación orientada a agentes
Источник: MarkTechPost. Коллаж: Hamidun News.
◐ Слушать статью

Команда Qwen из Alibaba открыла веса Qwen3.6-35B-A3B — новой мультимодальной модели с архитектурой sparse MoE. При 35 млрд общих параметров во время вывода активируются только 3 млрд, а основной акцент сделан на агентное кодирование, работу с инструментами и мультимодальное понимание.

Что выпустили

Qwen3.6-35B-A3B стала первой версией линейки Qwen3.6 с открытыми весами после запуска Qwen3.

6-Plus. Модель распространяется по лицензии Apache 2.0, доступна для самостоятельного хостинга на Hugging Face и ModelScope, а также через API Alibaba Cloud Model Studio.

Это не только текстовая модель: в ней есть vision encoder, поэтому она принимает изображения и видео, а нативный контекст составляет 262 144 токена с возможностью расширения примерно до 1,01 млн. Ключевая идея релиза — высокая производительность при низком числе активных параметров. Внутри у модели 35 млрд параметров, но на каждом шаге реально работают около 3 млрд.

По карточке модели, архитектура использует 256 экспертов, из которых одновременно активируются 8 routed-экспертов и 1 shared-эксперт. На практике это означает более дешёвый инференс по сравнению с крупными dense-моделями. Qwen3.

6 также по умолчанию работает в thinking-режиме, но поддерживает и прямой ответ без промежуточных рассуждений.

Ставка на код

Qwen прямо подаёт этот релиз как модель для agentic coding, а не просто ещё один чат-бот общего назначения. Разработчики подчёркивают, что Qwen3.6-35B-A3B лучше справляется с фронтенд-задачами, навигацией по репозиторию и многошаговой работой с инструментами. Модель интегрируется с Qwen-Agent, OpenClaw, Qwen Code и даже Claude Code через совместимые API. Для длинных сессий есть отдельная функция preserve_thinking: она сохраняет цепочки рассуждений из прошлых сообщений, чтобы агент не пересобирал контекст заново на каждом шаге.

  • Tool calling и работа с агентными пайплайнами Анализ репозитория на уровне нескольких файлов Генерация и правка фронтенд-кода * Длинные итеративные сессии с сохранением reasoning-контекста По данным Qwen, именно в кодовых и агентных тестах модель выглядит сильнее всего. На SWE-bench Verified она набирает 73,4, на Terminal-Bench 2.0 — 51,5, на NL2Repo — 29,4, а на внутреннем QwenWebBench — 1397. Это заметно выше, чем у Qwen3.5-35B-A3B, и на ряде задач лучше, чем у более крупной dense-модели Qwen3.5-27B. Иными словами, Qwen пытается доказать, что open-weight MoE-модель может быть полезной не только для локального чата, но и для полноценных dev-workflow, где нужны инструменты, память о предыдущих шагах и работа с кодовой базой целиком.

Мультимодальность без скидок Отдельный акцент сделан на зрение и мультимодальное рассуждение.

По таблицам Qwen, модель показывает 85,3 на RealWorldQA, 92,8 на MMBench EN, 89,9 на OmniDocBench1.5 и 81,9 на CC-OCR. В задачах пространственного понимания результаты ещё интереснее: 92,0 на RefCOCO и 50,8 на ODInW13.

Для видео тоже есть сильные метрики — 83,7 на VideoMMMU и 86,2 на MLVU. Для модели с 3 млрд активных параметров это серьёзная заявка на универсальность, а не узкую специализацию только под код. Практический смысл в том, что Qwen3.

6-35B-A3B можно ставить в привычные inference-стэки вроде vLLM и SGLang, причём с режимами для tool use и language-only запуска, если нужно освободить память. В примерах Qwen показывает запуск с полным контекстом 262K на восьми GPU, но отдельно советует по возможности не опускаться ниже 128K, если важны thinking-возможности. Для команд, которые хотят держать модель у себя и не зависеть от закрытого SaaS, это уже выглядит не как эксперимент, а как рабочий вариант.

Что это значит

Qwen продолжает сдвигать open-weight-рынок в сторону более практичных моделей: не максимальный размер ради размера, а баланс между стоимостью инференса, длинным контекстом, мультимодальностью и реальной пользой в разработке. Если заявленные результаты подтверждаются в полевых сценариях, Qwen3.6-35B-A3B станет одним из самых интересных открытых вариантов для команд, которым нужен AI-ассистент для кода, документов, изображений и агентных задач без обязательной привязки к закрытым платформам.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…