Anthropic расширяет контракт на вычисления с Google и Broadcom на фоне роста выручки до $30 млрд
Anthropic расширила compute-соглашения с Google и Broadcom — компания резервирует мощности под стремительный рост. Run-rate выручка достигла $30 млрд: ещё год н

Anthropic расширяет соглашения о вычислительных мощностях с Google и Broadcom на фоне резкого роста бизнеса: annualized run-rate выручка компании достигла $30 миллиардов. Это один из самых впечатляющих показателей динамики среди компаний в области генеративного ИИ за последние годы. Партнёрство Anthropic с Google началось в 2023 году, когда интернет-гигант инвестировал сначала несколько сотен миллионов, а затем довёл общий объём обязательств до нескольких миллиардов долларов.
Вместе с капиталом Google предоставил доступ к своей облачной инфраструктуре, в первую очередь к тензорным процессорам TPU — они сегодня являются основой для обучения и инференса моделей семейства Claude. Расширение текущего соглашения означает, что Anthropic гарантированно получит дополнительные объёмы вычислений по мере роста нагрузки. Broadcom в этой конфигурации выступает поставщиком специализированных чипов.
Компания разрабатывает ASIC-решения для крупных технологических заказчиков и проектирует кастомные ускорители под конкретные AI-нагрузки. Углубление сотрудничества с Broadcom сигнализирует о том, что Anthropic всерьёз диверсифицирует аппаратную базу — снижая зависимость от стандартных GPU NVIDIA в условиях сохраняющегося дефицита и ценового давления на рынке. Показатель run-rate $30 млрд говорит о том, что выручка Anthropic растёт быстрее, чем ожидали даже оптимистичные аналитики.
Ещё в середине 2024 года называлась цифра около $1 млрд ARR, а к концу года оценки выросли до $3-4 млрд. Прирост в 7-8 раз за несколько кварталов — результат массового корпоративного внедрения Claude API, активного использования Claude в продуктах Amazon (ещё одного крупного инвестора) и роста аудитории Claude.ai среди частных пользователей.
Compute — центральная статья расходов для любой AI-компании. Обучение больших языковых моделей требует тысяч ускорителей, непрерывно работающих месяцами; инференс в условиях растущей базы пользователей обходится не дешевле. Расширение compute-соглашений — это стандартный ответ на рост нагрузки.
Важнее другое: Anthropic выстраивает диверсифицированную стратегию, опираясь одновременно на TPU от Google и специализированные чипы Broadcom, а не привязываясь к единственному поставщику. Это решение вписывается в тренд, который прослеживается у всех крупных AI-лабораторий. Microsoft строит собственные чипы Maia для Azure, Meta разрабатывает MTIA, Google совершенствует TPU уже в шестом поколении.
Зависимость от NVIDIA высока у всех, но ведущие игроки инвестируют в альтернативное железо. Anthropic идёт по тому же пути — и при нынешних темпах роста у неё есть и финансовые ресурсы, и стратегическая мотивация делать это заранее. Расширение compute-соглашений на фоне $30 млрд run-rate — сигнал: Anthropic не просто закрывает текущий спрос, но резервирует мощности под следующую волну роста.
В индустрии, где дефицит вычислений напрямую ограничивает скорость разработки продуктов, такой шаг имеет стратегический смысл.