MarkTechPost→ оригинал

Liquid AI бросает вызов гонке размеров: гибридная архитектура LFM2 меняет правила игры

Liquid AI выпустила LFM2-24B-A2B — языковую модель на 24 млрд параметров с гибридной архитектурой, объединяющей механизмы внимания и свёрточные слои. Компания ц

Liquid AI бросает вызов гонке размеров: гибридная архитектура LFM2 меняет правила игры
Источник: MarkTechPost. Коллаж: Hamidun News.

Последние несколько лет индустрия больших языковых моделей жила по простому принципу: больше параметров — лучше результат. OpenAI наращивала GPT, Google раздувала Gemini, Meta увеличивала Llama. Но в 2026 году этот подход всё отчётливее упирается в физические ограничения — энергопотребление дата-центров, стоимость памяти, скорость инференса. Стартап Liquid AI из Бостона считает, что нашёл выход из тупика, и его новая модель LFM2-24B-A2B — это не просто очередной релиз, а заявка на архитектурную революцию.

Liquid AI — компания, выросшая из исследований MIT в области так называемых «жидких нейронных сетей» (liquid neural networks), вдохновлённых биологическими нервными системами. В отличие от классических трансформеров, где каждый слой выполняет фиксированную операцию, жидкие сети способны адаптировать свои вычисления в зависимости от входных данных. Это фундаментально иной подход к обработке информации, и команда последовательно развивает его уже несколько лет. LFM2-24B-A2B стала кульминацией этой работы — модель с 24 миллиардами параметров, построенная на гибридной архитектуре, которая объединяет классический механизм внимания (attention) со свёрточными операциями (convolutions).

Чтобы понять, почему это важно, нужно разобраться в проблеме. Стандартные трансформеры, лежащие в основе GPT, Claude и других моделей, используют механизм самовнимания, который позволяет каждому токену «смотреть» на все остальные токены в контексте. Это мощный инструмент, но его вычислительная сложность растёт квадратично с длиной контекста. Удвоили контекстное окно — получили четырёхкратный рост затрат на вычисления. Именно поэтому работа с длинными документами остаётся одной из самых ресурсоёмких задач для современных LLM. Свёрточные слои, напротив, обрабатывают информацию локально и линейно масштабируются, но исторически считались менее выразительными для работы с языком.

Гибридный подход Liquid AI пытается взять лучшее из двух миров. Свёрточные компоненты берут на себя обработку локальных паттернов — синтаксических структур, коротких зависимостей, повторяющихся шаблонов. Механизм внимания подключается там, где нужно уловить дальние связи в тексте — отсылки к ранее упомянутым сущностям, логические цепочки, сложные рассуждения. Обозначение «A2B» в названии модели указывает на конкретную конфигурацию этого баланса между attention и convolution блоками. По сути, модель сама решает, какой тип обработки применить к конкретному фрагменту данных, что делает вычисления значительно более эффективными.

Двадцать четыре миллиарда параметров — это сравнительно скромная цифра по меркам 2026 года, когда флагманские модели оперируют сотнями миллиардов и даже триллионами параметров. Но в этом и заключается главный тезис Liquid AI: архитектурная эффективность важнее грубой силы. Если модель с 24 миллиардами параметров способна конкурировать с моделями в несколько раз большего размера при значительно меньших затратах на инференс, это меняет экономику всей отрасли. Меньше GPU для обслуживания запросов — ниже стоимость API. Меньше энергопотребления — проще развернуть модель на периферийных устройствах. Быстрее инференс — лучше пользовательский опыт.

Для индустрии в целом релиз LFM2-24B-A2B вписывается в более широкий тренд. Всё больше исследовательских групп и компаний приходят к выводу, что эпоха «тупого масштабирования» заканчивается. Mamba и другие архитектуры на основе пространства состояний, работы по разреженным моделям с Mixture of Experts, квантизация и дистилляция — всё это попытки выжать больше интеллекта из меньшего количества вычислений. Liquid AI идёт своим путём, и его гибридный подход выглядит одним из наиболее элегантных решений проблемы.

Впрочем, стоит сохранять здоровый скептицизм. Полные бенчмарки LFM2-24B-A2B ещё предстоит изучить и независимо воспроизвести. Архитектурные инновации часто выглядят впечатляюще на бумаге, но сталкиваются с неожиданными проблемами при масштабировании в продакшене — от сложности обучения до совместимости с существующей инфраструктурой оптимизации. Экосистема инструментов вокруг трансформеров формировалась годами, и любой альтернативной архитектуре придётся доказывать свою жизнеспособность не только в лаборатории.

Тем не менее направление, которое задаёт Liquid AI, кажется неизбежным. Индустрия искусственного интеллекта подошла к точке, где наращивание параметров даёт убывающую отдачу, а требования к энергоэффективности и скорости только растут. Компании, которые найдут способ делать больше с меньшими ресурсами, определят следующую главу в развитии AI. И гибридные архитектуры, подобные LFM2, вполне могут оказаться ключом к этому будущему.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…