3DNews AI→ оригинал

Google releases Gemma 4: four models with 140 languages and an Apache 2.0 license

Google has released the open Gemma 4 family — four models based on Gemini 3 technologies. The lineup includes compact 2B and 4B versions for resource-constraine

Google releases Gemma 4: four models with 140 languages and an Apache 2.0 license
Источник: 3DNews AI. Коллаж: Hamidun News.
◐ Слушать статью

Google выпустила Gemma 4 — новое семейство открытых ИИ-моделей, которое охватывает и мобильные устройства, и более мощные серверные сценарии. В линейке сразу четыре версии, поддержка более 140 языков и лицензия Apache 2.0, которая снимает заметную часть ограничений для разработчиков и компаний.

Что показала

Google Gemma 4 построена на технологиях Gemini 3 и выходит сразу в четырёх конфигурациях, рассчитанных на разный уровень железа. Google разделила линейку не только по числу параметров, но и по типу архитектуры. Младшие версии ориентированы на устройства с ограниченными ресурсами, включая смартфоны, а старшие — на более серьёзные локальные и серверные нагрузки.

Это важный ход: компания пытается закрыть одним семейством сразу несколько сценариев, от on-device ИИ до полноценных рабочих моделей для разработчиков. По заявлению Google, старшие Gemma 4 показывают очень высокую эффективность на каждый параметр. Компания ссылается на результаты Arena AI для текстового вывода: 31-миллиардная модель заняла третье место, а 26-миллиардная — шестое.

При этом Google отдельно подчёркивает, что эти версии обошли модели, которые примерно в 20 раз крупнее. Такие сравнения всегда стоит читать осторожно, но сигнал понятный: Google делает ставку не только на масштаб, но и на плотность качества.

Линейка по размеру Внутри Gemma 4 есть четыре разных варианта, и у каждого своя роль.

Для маломощных устройств Google предлагает 2- и 4-миллиардные модели Effective. Для более серьёзных задач — 26-миллиардную версию Mixture of Experts и 31-миллиардную Dense. Само разделение тоже показательное: MoE-архитектура обычно активирует лишь часть сети на конкретном запросе, а dense-модель использует все параметры.

Это не обещание скорости именно для Gemma 4, но хорошая подсказка о том, как компания разводит сценарии использования внутри одной линейки. 2B Effective — компактная версия для устройств с жёсткими ограничениями по ресурсам 4B Effective — более мощный вариант для того же класса локальных сценариев 26B Mixture of Experts — старшая конфигурация для производительных систем 31B Dense — максимальная по размеру модель в семействе * Поддержка видео, изображений и более 140 языков во всей линейке Отдельно Google добавила несколько практичных возможностей. Все модели семейства умеют работать с видео и изображениями.

Две младшие версии также обрабатывают аудиоданные и понимают речь, что делает их особенно интересными для мобильных и встраиваемых сценариях. Ещё одна важная деталь — способность генерировать код в автономном режиме. На практике это означает, что Gemma 4 можно использовать для локальной разработки и экспериментов с вайб-кодингом без постоянной зависимости от облака и интернет-подключения.

Открытая лицензия Apache Самое заметное изменение для рынка — переход на Apache 2.0.

Предыдущие версии Gemma распространялись по собственной лицензии Google, а теперь компания выбрала гораздо более привычный и свободный для индустрии формат. Это упрощает внедрение в продукты, даёт больше ясности для юристов и убирает часть вопросов у команд, которые хотят дообучать, встраивать и коммерциализировать модели без лишних оговорок. Google прямо называет такую схему основой для «полной гибкости разработчиков и цифрового суверенитета». За громкой формулировкой стоит вполне практичная вещь: бизнес получает больший контроль над данными, инфраструктурой и способом развёртывания. Gemma 4 можно опробовать через Hugging Face, Kaggle и Ollama, то есть порог входа для экспериментов и пилотов остаётся низким как для энтузиастов, так и для продуктовых команд.

Что это значит

Gemma 4 выглядит как попытка Google занять более сильную позицию в открытом сегменте ИИ не за счёт одной большой модели, а за счёт полноценной линейки под разные устройства и бюджеты. Если заявленная эффективность подтвердится на практике, а Apache 2.0 действительно снимет юридические барьеры, разработчики получат один из самых удобных открытых наборов моделей для локальных мультимодальных и кодовых задач.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…