Liquid AI выпустила систему для запуска ИИ-агентов полностью на устройстве
Liquid AI выпустила модель LFM2-24B-A2B и десктопное приложение LocalCowork с открытым исходным кодом. Система позволяет запускать полноценные агентные рабочие

Идея запускать мощные языковые модели прямо на своём компьютере, без облака и без единого байта данных, уходящего на чужие серверы, долгое время оставалась красивой, но труднодостижимой целью. Liquid AI, похоже, сделала серьёзный шаг к тому, чтобы превратить её в рабочий инструмент. Компания представила модель LFM2-24B-A2B и сопутствующее десктопное приложение LocalCowork — полностью локальную систему для выполнения агентных рабочих процессов корпоративного уровня.
Чтобы понять значимость этого релиза, стоит вспомнить контекст. Liquid AI — стартап, основанный выходцами из MIT, который с самого начала пошёл нетрадиционным путём. Вместо того чтобы масштабировать трансформерные архитектуры вслед за OpenAI и Google, команда сосредоточилась на так называемых Liquid Foundation Models — архитектурах, вдохновлённых динамическими системами и нейронауками. Их модели отличаются компактностью и эффективностью при сохранении высокого качества генерации. Обозначение «24B-A2B» в названии новой модели указывает на 24 миллиарда параметров с механизмом активации лишь части из них — подход, напоминающий Mixture of Experts, который позволяет добиться производительности большой модели при вычислительных затратах значительно меньшей.
Главная инженерная идея LocalCowork заключается в том, что вся цепочка агентного взаимодействия — от получения задачи до вызова инструментов и возврата результата — происходит на устройстве пользователя. Для координации между моделью и внешними инструментами используется Model Context Protocol, открытый стандарт, изначально предложенный Anthropic для структурированного взаимодействия языковых моделей с программными средами. MCP позволяет модели «понимать», какие инструменты ей доступны, формировать корректные вызовы и обрабатывать результаты — и всё это без обращения к облачным API. По сути, это локальный оркестратор, который превращает языковую модель из генератора текста в полноценного цифрового агента.
Технически архитектура оптимизирована под минимальную задержку при диспетчеризации инструментов. Это критически важно для практического использования: если агент тратит секунды на каждый вызов функции, сложные многошаговые процессы становятся невыносимо медленными. Liquid AI заявляет, что LFM2-24B-A2B специально настроена для быстрого принятия решений о том, какой инструмент вызвать и с какими параметрами — задача, которая требует не столько объёма знаний, сколько точности и скорости логического вывода. Приложение LocalCowork доступно в открытом доступе через репозиторий Liquid4All на GitHub, что позволяет разработчикам изучить архитектуру, адаптировать её под свои нужды и интегрировать в существующие корпоративные системы.
Для кого это действительно важно? Прежде всего для организаций, работающих с чувствительными данными — финансовых институтов, медицинских учреждений, юридических фирм, государственных структур. До сих пор они стояли перед неприятным выбором: либо использовать мощные облачные модели и мириться с тем, что конфиденциальные данные покидают периметр организации, либо обходиться примитивными локальными решениями. LocalCowork предлагает третий путь — полноценный агентный функционал без компромиссов в области приватности. Отсутствие API-вызовов означает не только защиту данных, но и независимость от внешних сервисов: система работает даже без подключения к интернету.
Этот релиз вписывается в более широкий тренд, набирающий силу в индустрии. После нескольких лет безоговорочного доминирования облачного подхода маятник начинает качаться обратно. Apple Intelligence работает преимущественно на устройстве. Qualcomm и Intel вкладывают миллиарды в NPU для локального вывода. Microsoft продвигает концепцию Copilot Plus PC. Но большинство этих решений ограничиваются простыми задачами — суммаризацией, автодополнением, базовой классификацией. Liquid AI замахивается на большее: полноценные агентные рабочие процессы с вызовом инструментов, многошаговым планированием и контекстным управлением — и всё это локально.
Остаются, конечно, вопросы. Насколько модель с 24 миллиардами параметров, пусть и с разреженной активацией, будет комфортно работать на типичном корпоративном ноутбуке? Какие именно рабочие процессы удаётся автоматизировать с приемлемым качеством? Как система справляется со сложными цепочками из десятков вызовов инструментов? Ответы на эти вопросы даст практика, но сам факт появления подобного решения в открытом доступе меняет ландшафт дискуссии. Вопрос больше не в том, возможен ли приватный ИИ корпоративного уровня на устройстве, а в том, как быстро он станет стандартом.