3DNews AI→ оригинал

Alphabet discusses two new AI chips with Marvell to speed up inference in Google services

Alphabet is in talks with Marvell to develop two AI chips for inference. The first is meant to speed up data transfer through a specialized memory module, while

Alphabet discusses two new AI chips with Marvell to speed up inference in Google services
Источник: 3DNews AI. Коллаж: Hamidun News.
◐ Слушать статью

Alphabet начала переговоры с Marvell о разработке двух специализированных ИИ-чипов для инференса — этапа, когда уже обученная модель обрабатывает реальные пользовательские запросы. Если проект состоится, Google получит железо, заточенное не под лабораторные рекорды, а под быстрый и массовый отклик в интерактивных сервисах.

Какие чипы обсуждают В центре обсуждения — два разных компонента.

Первый — модуль памяти, который должен ускорить передачу данных внутри ИИ-системы. Для инференса это критично: даже мощный ускоритель теряет смысл, если модель упирается в пропускную способность памяти, задержки при обмене и медленную подачу данных. В больших языковых моделях именно эти узкие места часто определяют, насколько быстро и дёшево система сможет обслуживать ежедневный поток пользовательских запросов. Второй компонент — обновлённая версия TPU, фирменных тензорных процессоров Google, ориентированная на интерактивные приложения. Речь идёт о сценариях, где пользователь ждёт ответа сразу: поиск, ИИ-ассистенты, генерация текста, подсказки в интерфейсе. Такой выбор показывает сдвиг приоритетов: ценность всё чаще создаётся не в момент обучения модели, а в момент её постоянного запуска на миллионах коротких обращений, где важны стабильная задержка, предсказуемость и себестоимость каждого ответа.

Зачем Alphabet нужна Marvell Для Alphabet союз с Marvell выглядит прагматично.

Marvell сильна в дата-центровой инфраструктуре и специализированных микросхемах, а Google уже много лет развивает собственную линию TPU. Вместо того чтобы делать всё полностью внутри компании, Alphabet может разделить ответственность: сохранить контроль над архитектурой ускорителя и привлечь партнёра для тех частей системы, где особенно важны память, межсоединения, упаковка и быстрый обмен данными между компонентами. У сделки есть и экономическая логика. Инференс быстро превращается в один из самых дорогих слоёв ИИ-инфраструктуры, потому что именно он работает на постоянном пользовательском трафике. Чем точнее железо подогнано под конкретный тип нагрузки, тем проще масштабировать сервис без взрывного роста затрат. Для Google это шанс снизить стоимость ответа и лучше контролировать собственный технологический стек, а для Marvell — укрепить позиции на перегретом рынке ИИ-ускорителей.

  • Отдельный модуль памяти может снизить узкие места при работе с большими моделями Обновлённый TPU лучше подходит для диалоговых и других интерактивных сценариев Специализированный чип обычно даёт больше эффективности на ватт и на доллар Для Google это способ усилить контроль над собственной ИИ-инфраструктурой Для Marvell это вход глубже в рынок ускорителей для ИИ-нагрузок ## Где появится эффект Если переговоры дойдут до реальных поставок, эффект сначала заметят не пользователи, а команды, отвечающие за инфраструктуру Google. Инференс — это не разовый прогон модели, а непрерывная работа под нагрузкой, когда система должна быстро отвечать на огромное количество запросов подряд. В таком режиме важны не только вычисления как таковые, но и предсказуемое время отклика, энергоэффективность и отсутствие узких мест при передаче данных между памятью и ускорителем. Практически это означает более тонкую настройку железа под конкретные продукты. Рынок постепенно уходит от идеи одного универсального чипа, который одинаково хорош для всех ИИ-задач. Вместо этого компании собирают отдельные комбинации компонентов для обучения, инференса и интерактивных режимов. Переговоры Alphabet и Marvell хорошо вписываются в этот тренд: выигрывать будут не те, у кого просто больше GPU, а те, кто точнее проектирует всю цепочку исполнения модели под реальную нагрузку.

Что это значит

Переговоры Alphabet и Marvell показывают, что новая гонка в ИИ разворачивается уже не только вокруг моделей, но и вокруг специализированного железа для повседневных сервисов. Кто сможет дать быстрый ответ дешевле и стабильнее, тот и получит преимущество.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…