Uber expands AWS contract and bets on Amazon chips, bypassing Google and Oracle
Uber is expanding its contract with Amazon Web Services and moving key AI workloads for its service to Amazon’s custom chips — Trainium and Inferentia. It is a

Uber расширяет контракт с Amazon Web Services и переводит больше функций своего сервиса на чипы Amazon — это крупная победа AWS в конкуренции с Google Cloud и Oracle, которые также претендовали на этот бизнес. Решение крупнейшего агрегатора такси в мире сигнализирует рынку: кастомные AI-процессоры Amazon начинают всерьёз теснить стандартные GPU-решения NVIDIA в корпоративном сегменте. Amazon разрабатывает собственные AI-чипы уже несколько лет.
Trainium оптимизирован под обучение нейросетей, Inferentia — под их вывод в продакшне. Именно на эти процессоры Uber и переключает часть своих AI-нагрузок. Ранее эти задачи требовали стандартных GPU-кластеров или вычислительных мощностей других облачных провайдеров.
AWS позиционирует свой кремний как более дешёвую альтернативу для inference-задач: при сопоставимой пропускной способности стоимость вывода на Inferentia ниже, чем на NVIDIA H100, что критично для высокочастотных production-сервисов. Расширение контракта направлено именно на AI-нагрузки реального времени: алгоритмы подбора водителей, прогнозирование спроса по районам, динамическое ценообразование, системы обнаружения мошенничества и антиабьюзные фильтры. Все эти компоненты требуют постоянного inference ML-моделей с минимальной задержкой.
Uber обрабатывает подобные нагрузки круглосуточно в десятках городов одновременно, и стоимость inference — одна из ключевых строк в облачном бюджете компании. Снижение этой строки на 20-30% означает десятки миллионов долларов экономии ежегодно. Для Google и Oracle новость звучит как публичный укол.
Обе компании агрессивно наращивают AI-инфраструктуру, переманивая корпоративных клиентов. Google Cloud делает ставку на TPU четвёртого поколения и кластеры A3 на базе NVIDIA H100, Oracle — на суперкластеры A100/H100, позиционируя их как наиболее производительную AI-инфраструктуру в облаке. Выбор Uber в пользу AWS с его кастомными чипами — сигнал, что экономика AI-инфраструктуры начинает работать в пользу Amazon.
Amazon Web Services остаётся крупнейшим облачным провайдером с долей около 30% рынка по выручке. Но AI превратился в новое поле конкуренции: корпоративные клиенты перестраивают инфраструктуру и ищут способы снизить стоимость inference. Каждый крупный переход на кастомный кремний AWS — это рыночный сигнал и маркетинговый кейс для переговоров с другими предприятиями.
Uber в этом смысле — идеальная демонстрационная история для sales-команды Amazon. Uber входит в число наиболее технически нагруженных платформ в мире. Компания ежедневно обрабатывает миллионы поездок в 70+ странах, управляет Uber Eats и Uber Freight, ведёт масштабные R&D-программы в области автономного вождения.
Такой масштаб означает, что любой выбор платформы принимается после детального технического и финансового анализа. Когда Uber выбирает определённый тип AI-чипов, это не маркетинговое партнёрство — это инженерное решение с многолетними последствиями. Расширение партнёрства с AWS — ещё одно свидетельство того, что гонка за AI-инфраструктуру давно вышла за рамки привычного противостояния NVIDIA против всех остальных.
Amazon, Google и Microsoft строят собственные процессоры, и крупные технологические компании вынуждены делать конкретный выбор: чей кремний ляжет в основу их следующего AI-поколения. Uber выбрал Amazon.