Liquid AI تتحدى سباق النماذج الأكبر: البنية الهجينة لـ LFM2 تغيّر قواعد اللعبة
أطلقت Liquid AI نموذج LFM2-24B-A2B، وهو نموذج لغوي يضم 24 مليار معلمة ببنية هجينة تجمع بين آليات الانتباه والطبقات الالتفافية. وتستهدف الشركة أبرز عنق زجاجة في

Последние несколько лет индустрия больших языковых моделей жила по простому принципу: больше параметров — лучше результат. OpenAI наращивала GPT, Google раздувала Gemini, Meta увеличивала Llama. Но в 2026 году этот подход всё отчётливее упирается в физические ограничения — энергопотребление дата-центров, стоимость памяти, скорость инференса. Стартап Liquid AI из Бостона считает, что нашёл выход из тупика, и его новая модель LFM2-24B-A2B — это не просто очередной релиз, а заявка на архитектурную революцию.
Liquid AI — компания, выросшая из исследований MIT в области так называемых «жидких нейронных сетей» (liquid neural networks), вдохновлённых биологическими нервными системами. В отличие от классических трансформеров, где каждый слой выполняет фиксированную операцию, жидкие сети способны адаптировать свои вычисления в зависимости от входных данных. Это фундаментально иной подход к обработке информации, и команда последовательно развивает его уже несколько лет. LFM2-24B-A2B стала кульминацией этой работы — модель с 24 миллиардами параметров, построенная на гибридной архитектуре, которая объединяет классический механизм внимания (attention) со свёрточными операциями (convolutions).
Чтобы понять, почему это важно, нужно разобраться в проблеме. Стандартные трансформеры, лежащие в основе GPT, Claude и других моделей, используют механизм самовнимания, который позволяет каждому токену «смотреть» на все остальные токены в контексте. Это мощный инструмент, но его вычислительная сложность растёт квадратично с длиной контекста. Удвоили контекстное окно — получили четырёхкратный рост затрат на вычисления. Именно поэтому работа с длинными документами остаётся одной из самых ресурсоёмких задач для современных LLM. Свёрточные слои, напротив, обрабатывают информацию локально и линейно масштабируются, но исторически считались менее выразительными для работы с языком.
Гибридный подход Liquid AI пытается взять лучшее из двух миров. Свёрточные компоненты берут на себя обработку локальных паттернов — синтаксических структур, коротких зависимостей, повторяющихся шаблонов. Механизм внимания подключается там, где нужно уловить дальние связи в тексте — отсылки к ранее упомянутым сущностям, логические цепочки, сложные рассуждения. Обозначение «A2B» в названии модели указывает на конкретную конфигурацию этого баланса между attention и convolution блоками. По сути, модель сама решает, какой тип обработки применить к конкретному фрагменту данных, что делает вычисления значительно более эффективными.
Двадцать четыре миллиарда параметров — это сравнительно скромная цифра по меркам 2026 года, когда флагманские модели оперируют сотнями миллиардов и даже триллионами параметров. Но в этом и заключается главный тезис Liquid AI: архитектурная эффективность важнее грубой силы. Если модель с 24 миллиардами параметров способна конкурировать с моделями в несколько раз большего размера при значительно меньших затратах на инференс, это меняет экономику всей отрасли. Меньше GPU для обслуживания запросов — ниже стоимость API. Меньше энергопотребления — проще развернуть модель на периферийных устройствах. Быстрее инференс — лучше пользовательский опыт.
Для индустрии в целом релиз LFM2-24B-A2B вписывается в более широкий тренд. Всё больше исследовательских групп и компаний приходят к выводу, что эпоха «тупого масштабирования» заканчивается. Mamba и другие архитектуры на основе пространства состояний, работы по разреженным моделям с Mixture of Experts, квантизация и дистилляция — всё это попытки выжать больше интеллекта из меньшего количества вычислений. Liquid AI идёт своим путём, и его гибридный подход выглядит одним из наиболее элегантных решений проблемы.
Впрочем, стоит сохранять здоровый скептицизм. Полные бенчмарки LFM2-24B-A2B ещё предстоит изучить и независимо воспроизвести. Архитектурные инновации часто выглядят впечатляюще на бумаге, но сталкиваются с неожиданными проблемами при масштабировании в продакшене — от сложности обучения до совместимости с существующей инфраструктурой оптимизации. Экосистема инструментов вокруг трансформеров формировалась годами, и любой альтернативной архитектуре придётся доказывать свою жизнеспособность не только в лаборатории.
Тем не менее направление, которое задаёт Liquid AI, кажется неизбежным. Индустрия искусственного интеллекта подошла к точке, где наращивание параметров даёт убывающую отдачу, а требования к энергоэффективности и скорости только растут. Компании, которые найдут способ делать больше с меньшими ресурсами, определят следующую главу в развитии AI. И гибридные архитектуры, подобные LFM2, вполне могут оказаться ключом к этому будущему.