Poolside released Laguna XS.2 and M.1 — open models for agentic programming
Poolside released two models for agentic programming — Laguna XS.2 and M.1. XS.2 received open weights under Apache 2.0, runs locally, and achieves 68.2% on SWE

Poolside выпустила первые модели семейства Laguna — XS.2 и M.1 — и делает ставку не на обычный AI для автодополнения, а на кодовых агентов, которые могут вести задачу долго и последовательно без постоянной потери контекста. Идея в том, что модель должна не просто написать фрагмент кода, а читать репозиторий, вносить правки, запускать тесты, анализировать ошибки и доводить изменение до рабочего состояния в одном рабочем цикле.
Что представила
Poolside В релиз вошли две модели и агентная среда, на которой компания обучает собственные системы. Флагманская Laguna M.1 — это крупная MoE-модель на 225 млрд параметров с 23 млрд активных параметров на токен.
Laguna XS.2 заметно компактнее: 33 млрд общих параметров и 3 млрд активных. Для рынка это важный сигнал: Poolside выводит не только серверную модель под тяжёлые нагрузки, но и облегчённую версию для локального использования.
Именно XS.2 стала первой open-weight моделью компании. Poolside распространяет её по лицензии Apache 2.
0 и отдельно подчёркивает, что модель можно запускать на Mac с 36 ГБ оперативной памяти через Ollama. Вместе с моделями компания открыла research preview терминального агента pool и ACP-клиента с сервером. Это та же среда, которую Poolside использует внутри для RL-обучения и проверки того, как агент решает реальные инженерные задачи шаг за шагом.
Результаты на бенчмарках Главный аргумент релиза — результаты на прикладных тестах для разработки.
Laguna M.1 набрала 72,5% на SWE-bench Verified, 67,3% на SWE-bench Multilingual, 46,9% на SWE-bench Pro и 40,7% на Terminal-Bench 2.0. XS.2 идёт немного ниже, но для своей весовой категории выглядит очень сильно: 68,2%, 62,4%, 44,5% и 30,1% соответственно. Для компактной open-weight модели это уже уровень, на который будут ориентироваться многие локальные coding-агенты. Эти цифры важны не только сами по себе. SWE-bench Verified и Pro проверяют, способна ли модель исправлять реальные баги в существующих репозиториях, а Terminal-Bench ближе к поведению агента в терминале, где нужно работать с файлами и командами. Poolside прямо называет обе Laguna моделями для long-horizon-задач: когда требуется удерживать контекст, планировать серию шагов и не сыпаться после длинной цепочки вызовов инструментов и промежуточных проверок.
- Laguna XS.2 — первая open-weight модель Poolside Веса XS.2 доступны по лицензии Apache 2.0 Контекстное окно XS.2 составляет 131 072 токена XS.2 можно запускать локально на Mac с 36 ГБ RAM Обе модели обучены более чем на 30 трлн токенов ## Как сделаны модели Обе Laguna обучались с нуля на собственной инфраструктуре Poolside, без опоры на чужую базовую модель. Для M.1 компания использовала 6144 связанных между собой GPU NVIDIA Hopper. В основе семейства лежит Mixture of Experts: на каждом шаге активируется лишь часть «экспертов», поэтому модель может быть большой по общему числу параметров, но не настолько дорогой на инференсе, как плотные модели сопоставимого масштаба. Это особенно важно для агентных сценариев, где вызовов модели много. Для XS.2 Poolside отдельно описывает набор решений ради эффективности: смешение Sliding Window Attention и глобального внимания, квантование KV-cache в FP8 и архитектуру с 256 экспертами. В результате модель получила окно контекста 131k токенов и поддержку нативного рассуждения между вызовами инструментов. Если убрать маркетинг, смысл простой: агент может чередовать размышление, работу с терминалом и следующие действия без жёсткого разрыва между этими этапами и с меньшими затратами памяти. Отдельный акцент в анонсе — на обучении агентов, а не только самой языковой модели. Poolside построила асинхронную RL-систему, где акторы поднимают песочницы, прогоняют задачи, собирают траектории и почти непрерывно передают их тренеру. Компания также утверждает, что оптимизатор Muon позволил получить ту же тренировочную потерю примерно на 15% меньшем числе шагов по сравнению с AdamW. Это не делает Laguna автоматическим лидером по всем метрикам, но показывает зрелость всего стека, а не одного удачного чекпойнта.
Что это значит
На рынке стало больше не просто «моделей для кода», а систем, заточенных под полноценное агентное программирование. Для разработчиков это означает появление ещё одной сильной open-weight базы, которую можно дообучать, квантизировать и запускать локально. Для индустрии в целом релиз Laguna показывает сдвиг от сценария «модель пишет функцию» к формату, где AI ведёт длинную инженерную задачу целиком — а именно вокруг этого сейчас и строится следующая волна конкуренции.