TechCrunch→ оригинал

Meta переводит агентный ИИ на десятки миллионов ядер AWS Graviton вместо GPU

Meta расширяет партнерство с AWS и переводит часть AI-нагрузок на процессоры Graviton. Речь не о GPU для обучения моделей, а о CPU для агентных сценариев: рассу

Meta переводит агентный ИИ на десятки миллионов ядер AWS Graviton вместо GPU
Источник: TechCrunch. Коллаж: Hamidun News.

Meta фактически делает ставку на новый слой AI-инфраструктуры: компания заключила соглашение с AWS о развертывании десятков миллионов ядер Graviton для агентных AI-нагрузок. Это не очередная закупка GPU для обучения моделей, а признак того, что рынок начинает делиться на два больших направления. Одно — обучение все более крупных моделей на ускорителях.

Второе — обслуживание огромного числа агентных сценариев после обучения, где важны уже не только пиковая мощность, но и цена, энергоэффективность и предсказуемость работы на масштабе. По официальному сообщению Amazon от 24 апреля 2026 года, запуск начинается с десятков миллионов ядер Graviton и может быть расширен по мере роста потребностей Meta. В Amazon говорят, что Meta уже стала одним из крупнейших клиентов Graviton в мире.

Речь идет о CPU семейства AWS Graviton, а не о GPU: это ARM-процессоры собственной разработки Amazon, которые доступны через облако AWS. Именно на них Meta собирается запускать часть инфраструктуры, поддерживающей ее AI-сервисы и обработку миллиардов взаимодействий, где нужно координировать сложные многошаговые рабочие процессы. Почему это важно: бум агентного ИИ меняет саму структуру спроса на железо.

GPU по-прежнему незаменимы, когда нужно обучать большие модели или прогонять особенно тяжелый inference. Но как только поверх этих моделей появляются агенты, резко растет доля задач другого типа — рассуждение в реальном времени, генерация кода, поиск, планирование последовательности действий, оркестрация вызовов инструментов и управление длинными цепочками шагов. Такие нагрузки часто упираются не только в ускорители, но и в CPU, память, межузловое взаимодействие и стоимость каждого запроса.

Для компаний масштаба Meta это уже не техническая деталь, а вопрос экономики всей AI-платформы. Для AWS сделка с Meta — это сразу несколько побед. Во-первых, Amazon получает очень заметный внешний сигнал рынку: ее собственные чипы могут использоваться не только внутри AWS, но и в одной из самых требовательных AI-инфраструктур мира.

Во-вторых, это помогает вернуть часть расходов Meta обратно в AWS. В августе 2025 года Meta подписала шестилетнее облачное соглашение с Google Cloud более чем на 10 миллиардов долларов, и на этом фоне новый контракт с Amazon выглядит как шаг к более диверсифицированной схеме закупки вычислений. В-третьих, AWS усиливает позицию в новом сегменте: не просто «облако для моделей», а поставщик полного стека для агентного ИИ.

Есть и еще один контекст. 20 апреля 2026 года Anthropic объявила о расширении сотрудничества с Amazon и обязательстве потратить более 100 миллиардов долларов на AWS в течение десяти лет, в том числе под мощности на базе Trainium. На этом фоне партнерство с Meta по Graviton показывает, что Amazon старается закрепиться сразу в нескольких слоях AI-инфраструктуры: на ускорителях для обучения и inference, и отдельно на CPU для агентных и сервисных нагрузок.

Дополнительный аргумент Amazon — экономика. Graviton5, по данным компании, создан специально под такие сценарии, предлагает до 192 ядер, более крупный кэш и до 25% прироста производительности к предыдущему поколению. Для заказчиков это означает попытку снизить стоимость AI-операций без отказа от масштаба.

Главный вывод простой: гонка AI-чипов больше не сводится к дефициту GPU и доминированию Nvidia. Крупные игроки начинают собирать гибридные вычислительные стеки, где каждая категория железа отвечает за свой участок: GPU — за обучение, специализированные ускорители — за часть inference, CPU — за оркестрацию, агентные цепочки и массовые прикладные нагрузки. Сделка Meta и AWS показывает, что следующая борьба идет за то, кто даст лучшую цену за единицу полезной AI-работы.

И если агентные продукты действительно станут основным интерфейсом к моделям, спрос на такие CPU-архитектуры будет расти не менее быстро, чем спрос на классические AI-ускорители.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…