TNW→ оригинал

Google обсуждает с Marvell AI-чипы для инференса и снижает зависимость от Broadcom

Google может подключить Marvell к разработке двух новых AI-чипов — memory processing unit и TPU для инференса. Это усилит диверсификацию её кремниевой цепочки р

Google обсуждает с Marvell AI-чипы для инференса и снижает зависимость от Broadcom
Источник: TNW. Коллаж: Hamidun News.

Google готовит следующий шаг в своей чиповой стратегии: компания обсуждает с Marvell создание двух специализированных ускорителей для ИИ, чтобы расширить цепочку разработки за пределы Broadcom. Если переговоры завершатся сделкой, Google получит ещё одного партнёра для кастомного кремния — и усилит ставку на более дешёвый и массовый инференс, а не только на обучение больших моделей. По имеющейся информации, предмет переговоров — два новых чипа.

Первый — memory processing unit, то есть компонент, заточенный под работу с памятью и передачей данных внутри AI-систем. Второй — TPU, оптимизированный именно под инференс, когда модель уже обучена и должна быстро отвечать на запросы пользователей. Для Google это чувствительное направление: чем больше запросов проходит через Gemini, поиск, рекламу и облачные сервисы, тем сильнее давит стоимость каждого ответа и энергопотребление дата-центров.

Сейчас Google уже строит свою кастомную кремниевую экосистему не в одиночку. Ключевым партнёром долгое время остаётся Broadcom, а в цепочке разработки также фигурирует MediaTek. Появление Marvell в качестве потенциального третьего партнёра означает не просто расширение списка подрядчиков.

Это способ распределить риски, не зависеть от одного поставщика критически важных компонентов и параллельно тестировать разные инженерные подходы для разных классов нагрузок — от обучения до вывода моделей в рабочих сервисах. Важно, что речь пока идёт именно о переговорах: подписанного контракта, судя по имеющейся информации, ещё нет. Но сам факт таких обсуждений показывает, куда двигается рынок.

На фоне бума генеративного ИИ компании всё активнее проектируют собственные чипы, потому что универсальные GPU остаются дорогими, дефицитными и не всегда оптимальными для конкретной задачи. Инференс — особенно привлекательная цель для кастомизации: именно на нём в итоге масштабируются пользовательские продукты, где важны задержка, цена запроса и предсказуемая производительность. Отдельный интерес вызывает memory processing unit.

В AI-инфраструктуре узким местом часто становится не чистая вычислительная мощность, а скорость подачи данных к ускорителю. Чем эффективнее система работает с памятью, тем меньше простаивают вычислительные блоки и тем лучше можно использовать уже установленное железо. Поэтому такие решения могут быть важны не меньше, чем сами TPU: они улучшают общий баланс системы и снижают потери на перемещение данных.

Для Google это особенно логичный шаг. Компания уже много лет развивает линейку TPU и умеет тесно связывать железо со своим софтом, дата-центрами и облачной инфраструктурой. Новые специализированные блоки могут помочь ей точнее настроить стек под разные сценарии: отдельно под обучение, отдельно под обслуживание огромного числа запросов, отдельно под узкие места, связанные с памятью.

Такой подход обычно даёт не только прирост скорости, но и более жёсткий контроль над себестоимостью, сроками поставок и зависимостью от внешней экосистемы. Ещё один слой этой истории — переговорная позиция Google. Когда у компании несколько дизайн-партнёров, ей проще распределять проекты по специализациям и не привязывать всю дорожную карту к темпам одного подрядчика.

В индустрии, где вывод нового поколения AI-железа напрямую влияет на маржу облака и скорость запуска продуктов, такая гибкость становится стратегическим активом. Даже без финального контракта сам диалог с Marvell показывает, что Google заранее готовит альтернативы и расширяет пространство для манёвра. В практическом смысле эта новость важна не потому, что Google нашла ещё одного производителя чипов, а потому, что крупнейшие AI-компании переходят к более дробной и специализированной архитектуре железа.

Побеждать будет не тот, у кого просто больше ускорителей, а тот, кто лучше распределяет роли между ними. Если сделка с Marvell состоится, это станет ещё одним сигналом: следующая фаза гонки ИИ идёт не только за моделями, но и за экономикой инференса, где каждый ватт и каждый миллисекундный выигрыш превращаются в конкурентное преимущество.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…