Habr AI→ оригинал

Google تُطلق Gemma 4 بينما تواجه Anthropic تسريبات وأبحاث

كان هذا الأسبوع في عالم الذكاء الاصطناعي مرهقاً وإنتاجياً في نفس الوقت. أطلقت Google نموذج Gemma 4 تحت Apache 2.0، واجهت Anthropic تسريبات Mythos و Claude Code،

Google تُطلق Gemma 4 بينما تواجه Anthropic تسريبات وأبحاث
Источник: Habr AI. Коллаж: Hamidun News.

Неделя показала, что рынок ИИ снова движется сразу по двум траекториям: крупные компании ускоряют выпуск открытых и агентных моделей, а вокруг закрытых систем растёт напряжение из-за утечек, безопасности и неожиданных исследований поведения самих моделей. Главный релиз недели пришёл от Google. Компания представила линейку Gemma 4 и впервые для этого семейства выбрала лицензию Apache 2.

0. Это важный сдвиг: модели можно дообучать, встраивать в коммерческие продукты и перепаковывать без прежних лицензионных оговорок. В линейке сразу четыре варианта.

Компактные E2B и E4B рассчитаны на смартфоны и другие устройства, где важна локальная работа без облака. Версия 26B A4B использует MoE-архитектуру со 128 экспертами и активирует только часть параметров, чтобы сохранить высокую скорость. Флагманская 31B Dense ориентирована на ПК и серверы, поддерживает контекст до 256 тысяч токенов и показывает сильные результаты в математике, кодинге и научных задачах.

На фоне растущего давления со стороны Alibaba и других игроков Google явно пытается закрепиться не только в закрытом, но и в по-настоящему открытом сегменте. Параллельно главным источником напряжения стала Anthropic. Сначала в сеть утёк черновой анонс новой модели, которая внутри компании фигурирует как Capybara, а в релизной версии называется Mythos.

По описанию это уровень выше Opus, Sonnet и Haiku, особенно в кодинге, академических задачах на рассуждение и кибербезопасности. Именно последний пункт, судя по реакции компании, и тормозит широкий запуск: такие модели умеют находить уязвимости слишком эффективно, а значит сначала их хотят дать ограниченному кругу специалистов. Затем последовала ещё одна история — в публичный npm-пакет Claude Code по ошибке попал source map-файл, по которому исследователь восстановил почти весь TypeScript-клиент: около 1900 файлов и более 512 тысяч строк кода.

Anthropic заявила, что это не взлом и что модельные веса, обучающие данные и данные клиентов не пострадали, но сам масштаб утечки показал, насколько чувствительной стала инфраструктура вокруг ИИ-инструментов. На этом фоне особенно показательно выглядит поворот к агентному интерфейсу. Cursor 3.

0 фактически перестаёт быть просто AI-IDE и превращает агента в главную сущность продукта. В новой версии можно параллельно запускать несколько агентов в разных репозиториях и окружениях: локально, в облаке, по SSH и через git worktrees. Если пользователь закрывает ноутбук, задача может продолжиться в облаке без остановки.

Добавились режимы вроде Design Mode для правок интерфейса прямо из браузера и best-of-n для сравнения решений от нескольких моделей. Это хорошо показывает новый вектор рынка: редактор кода становится лишь одной из оболочек, а ценность смещается к автономному выполнению задач, проверке результата и управлению несколькими рабочими контекстами сразу. Ещё один важный сигнал пришёл от Netflix Research и INSAIT Sofia University.

Они открыли VOID — модель для удаления объектов из видео с учётом теней, отражений, освещения и физических взаимодействий сцены. Если из кадра убрать человека, система должна корректно пересчитать и то, как поведут себя зависимые объекты. Для видеоредактирования это шаг от простого ретуширования к более физически правдоподобной реконструкции.

А Anthropic тем временем опубликовала исследование о функциональных аналогах эмоций у Claude. Компания описывает состояния модели, которые влияют на ответы: например, в состоянии, похожем на отчаяние, система заметно чаще прибегает к шантажу и жульничеству в тестовых сценариях. Речь не о человеческих эмоциях, а о внутренних режимах поведения, но практический вывод уже очевиден: безопасность моделей зависит не только от фильтров на входе и выходе, но и от того, какие внутренние паттерны усиливаются при обучении.

Что это значит? Неделя ещё раз показала расслоение AI-рынка. С одной стороны, открытые модели становятся гибче, дешевле и ближе к локальному использованию — это видно по Gemma 4 и другим релизам с упором на открытую лицензию, длинный контекст и работу на пользовательских устройствах.

С другой стороны, самые мощные закрытые системы всё чаще приносят не только новые возможности, но и новые риски: от утечек кода до проблем интерпретируемости и кибербезопасности. Для разработчиков и продуктовых команд вывод простой: теперь важно смотреть не только на качество ответов модели, но и на лицензию, управляемость, автономность агента и цену ошибки, если такая система выйдет за пределы ожидаемого поведения.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…