Meta a dévoilé un plan pour quatre puces AI MTIA dédiées à l’inférence, sans pour autant abandonner Nvidia et AMD
Meta a dévoilé la feuille de route de quatre accélérateurs MTIA, appelés à prendre en charge une part croissante des charges de travail AI dans les centres de d

Meta раскрыла план развития собственной линейки AI-ускорителей MTIA: в ближайшие два года компания хочет вывести сразу четыре поколения чипов для задач ранжирования, рекомендаций и генеративного ИИ. Полностью отказаться от Nvidia и AMD при этом не получится — собственный кремний в Meta рассматривают как дополнение к закупкам стороннего железа, а не как мгновенную замену.
Зачем
Meta свои чипы Главная причина проста: нагрузка на инфраструктуру Meta растёт слишком быстро, а универсальные GPU обходятся всё дороже. Компания расширяет мощности дата-центров под Facebook, Instagram и собственные генеративные сервисы, поэтому пытается получить больше контроля над себестоимостью инференса — этапа, когда модель уже обучена и отвечает на запросы пользователей. Для такой работы не всегда нужен максимально универсальный ускоритель.
Иногда выгоднее сделать чип под конкретные внутренние сценарии и выжать из него лучшую эффективность на ватт и на доллар. Meta говорит, что уже использует сотни тысяч MTIA-чипов для инференса в рекомендациях, органическом контенте и рекламе. По сути, речь идёт не о лабораторном эксперименте, а о встроенной части продакшен-инфраструктуры.
На фоне этого компания ускоряет разработку новых поколений. Показательно и другое число: в 2026 году Meta ожидает капитальные затраты на уровне $115–135 млрд, и заметная часть этих вложений идёт в AI-инфраструктуру. Собственные ускорители должны помочь не только масштабироваться быстрее, но и снизить зависимость от цен и поставок внешних вендоров.
Как выглядит дорожная карта В центре новой дорожной карты — четыре чипа MTIA, которые
Meta собирается разворачивать с гораздо более высокой скоростью, чем это принято в индустрии. Если многие AI-чипы обновляются раз в один-два года, Meta хочет двигаться с шагом примерно в шесть месяцев. Это стало возможным за счёт модульного подхода: новые поколения проектируются так, чтобы вставать в уже подготовленную стойку и сетевую инфраструктуру без полной переделки площадки.
MTIA 300 уже находится в производстве и рассчитан на задачи ранжирования и рекомендаций. MTIA 400 станет следующим этапом и, по данным компании, готовится к работе в дата-центрах Meta. * MTIA 450 проектируется в первую очередь под генеративный AI-инференс.
* MTIA 500 продолжит ту же линию и должен усилить инфраструктуру в 2027 году. Начиная с MTIA 400, Meta проектирует не только сам чип, но и полноценную систему вокруг него: несколько серверных стоек, сеть и жидкостное охлаждение. Такой подход важен, потому что в крупных AI-кластерах предел производительности давно упирается не только в вычисления, но и в подачу данных, энергопотребление и теплоотвод.
Чем лучше компания оптимизирует весь стек, тем меньше переплачивает за универсальность, которая ей не всегда нужна.
Почему это не замена
Nvidia Несмотря на громкий анонс, Meta прямо не подаёт MTIA как альтернативу, которая вытеснит Nvidia или AMD из её дата-центров. Наоборот, компания говорит о «портфельном» подходе: разные типы нагрузок требуют разных чипов, и одного универсального решения для всего просто нет. В ближайшие годы внешние ускорители останутся критически важными, особенно там, где нужны самые тяжёлые сценарии обучения больших моделей или быстрый доступ к уже готовой экосистеме железа и софта.
Ставка Meta в другом: вынести на собственные чипы те нагрузки, где можно получить максимальный выигрыш по цене и эффективности. При этом компания старается не строить закрытую экосистему. MTIA изначально делают с опорой на привычные отраслевые инструменты — PyTorch, vLLM, Triton и стандарты Open Compute Project.
Это упрощает внедрение в существующие дата-центры. Часть разработки ведётся вместе с Broadcom, а производство доверено TSMC, так что даже у «собственного» кремния остаётся длинная внешняя цепочка партнёров.
Что это значит
Meta показывает, что гонка AI-железа смещается от простой закупки самых мощных GPU к более тонкой модели: крупные платформы собирают смешанный парк из сторонних и собственных ускорителей. Для рынка это сигнал, что главный дефицит ближайших лет — не только сами чипы, но и умение быстро подгонять инфраструктуру под конкретный тип AI-нагрузки.