Meta تطور رقائقها الخاصة لتدريب نماذج AI
تواصل Meta Platforms تطوير برنامجها للرقائق الخاصة، رغم الصفقات الكبيرة الأخيرة مع أبرز مصنّعي أشباه الموصلات. وأكد المدير المالي للشركة خططها لتطوير معالجات قا

Компания, которая тратит десятки миллиардов долларов в год на инфраструктуру искусственного интеллекта, больше не хочет зависеть от чужих процессоров даже на самом критичном этапе — обучении моделей. Финансовый директор Meta Platforms подтвердил, что компания разрабатывает собственные чипы, предназначенные для тренировки будущих AI-моделей. Это заявление прозвучало на фоне недавно заключённых крупных контрактов с ведущими производителями полупроводников и сигнализирует о том, что стратегия Meta в области вычислительной инфраструктуры становится значительно более амбициозной.
Чтобы понять масштаб этого шага, нужно разобраться в контексте. До сих пор кастомные чипы Meta — прежде всего семейство MTIA — были ориентированы на инференс, то есть на запуск уже обученных моделей. Инференс — это задача попроще: модель уже знает, что делать, ей нужно лишь быстро и эффективно выдавать результаты. Обучение же — совершенно другой зверь. Тренировка крупной языковой модели требует колоссальных вычислительных мощностей, сложнейшей координации между тысячами процессоров и выдающейся пропускной способности памяти. Именно поэтому NVIDIA с её GPU серий H100 и B200 до сих пор остаётся практически безальтернативным поставщиком для этого этапа. Заявить о разработке собственного тренировочного чипа — значит бросить вызов этой монополии.
Мотивация Meta вполне прозрачна и измеряется конкретными цифрами. В 2025 году компания потратила на капитальные расходы, преимущественно связанные с AI-инфраструктурой, порядка 35-40 миллиардов долларов. Значительная часть этих средств ушла на закупку GPU у NVIDIA. При таких масштабах даже незначительное снижение зависимости от внешнего поставщика может сэкономить миллиарды. Но дело не только в деньгах. Собственные чипы дают возможность оптимизировать архитектуру под конкретные нужды: под архитектуру моделей LLaMA, под специфику распределённого обучения в дата-центрах Meta, под уникальные паттерны нагрузки. Универсальные GPU от NVIDIA великолепны, но они именно универсальны — а значит, неизбежно несут в себе компромиссы.
Примечательно, что это заявление прозвучало после того, как Meta заключила крупные сделки с ведущими чипмейкерами. Казалось бы, зачем инвестировать в собственные разработки, если партнёрства с Broadcom, TSMC и другими игроками уже обеспечивают доступ к передовым технологиям? Ответ кроется в стратегическом горизонте планирования. Разработка тренировочного чипа с нуля — процесс, занимающий три-пять лет от концепции до массового производства. Meta играет вдолгую: текущие контракты закрывают сегодняшние потребности, а собственный кремний должен обеспечить независимость в следующем десятилетии. Это та же логика, которой следуют Google с TPU, Amazon с Trainium и Microsoft с Maia — крупнейшие потребители вычислительных мощностей не могут позволить себе стратегическую зависимость от одного поставщика.
Впрочем, путь от амбиций до работающего тренировочного чипа усеян техническими и организационными сложностями. Google потребовалось почти десятилетие, чтобы довести TPU до уровня, на котором компания смогла обучать свои крупнейшие модели преимущественно на собственном железе. Amazon, несмотря на значительные инвестиции в Trainium, до сих пор сталкивается с вопросами о программной экосистеме и совместимости. Создать чип — это полдела. Нужно выстроить полный стек: компиляторы, фреймворки, инструменты отладки, системы мониторинга. Нужно убедить собственных исследователей, привыкших к CUDA и PyTorch, перейти на новую платформу. Нужно обеспечить надёжность на уровне тысяч чипов, работающих в связке месяцами без сбоев.
Для NVIDIA это заявление — ещё один тревожный сигнал в длинной серии подобных. Каждый крупный клиент, объявляющий о собственной чиповой программе, потенциально сокращает адресный рынок компании Дженсена Хуанга. Однако опыт показывает, что реальное замещение происходит медленно. Даже Google, обладающая самыми зрелыми кастомными AI-чипами в индустрии, продолжает закупать GPU у NVIDIA для определённых задач. Скорее всего, Meta движется к гибридной модели, где собственные чипы постепенно берут на себя всё большую долю нагрузки, а закупки у сторонних поставщиков сохраняются как страховка и дополнение.
Решение Meta разрабатывать тренировочные чипы — это не просто корпоративная новость, а индикатор фундаментального сдвига в индустрии. Эпоха, когда один поставщик мог контролировать вычислительную основу всей AI-революции, подходит к концу. Крупнейшие технологические компании мира последовательно выстраивают вертикальную интеграцию — от моделей и данных до самого кремния, на котором всё это работает. Вопрос уже не в том, сможет ли Meta создать конкурентоспособный тренировочный чип, а в том, насколько быстро ей это удастся — и как это перекроит карту многомиллиардного рынка AI-инфраструктуры.