Uber amplia contrato com a AWS e aposta em chips da Amazon, preterindo Google e Oracle
Uber amplia o contrato com a Amazon Web Services e migra cargas críticas de AI do seu serviço para os chips customizados da Amazon — Trainium e Inferentia. É um

Uber расширяет контракт с Amazon Web Services и переводит больше функций своего сервиса на чипы Amazon — это крупная победа AWS в конкуренции с Google Cloud и Oracle, которые также претендовали на этот бизнес. Решение крупнейшего агрегатора такси в мире сигнализирует рынку: кастомные AI-процессоры Amazon начинают всерьёз теснить стандартные GPU-решения NVIDIA в корпоративном сегменте. Amazon разрабатывает собственные AI-чипы уже несколько лет.
Trainium оптимизирован под обучение нейросетей, Inferentia — под их вывод в продакшне. Именно на эти процессоры Uber и переключает часть своих AI-нагрузок. Ранее эти задачи требовали стандартных GPU-кластеров или вычислительных мощностей других облачных провайдеров.
AWS позиционирует свой кремний как более дешёвую альтернативу для inference-задач: при сопоставимой пропускной способности стоимость вывода на Inferentia ниже, чем на NVIDIA H100, что критично для высокочастотных production-сервисов. Расширение контракта направлено именно на AI-нагрузки реального времени: алгоритмы подбора водителей, прогнозирование спроса по районам, динамическое ценообразование, системы обнаружения мошенничества и антиабьюзные фильтры. Все эти компоненты требуют постоянного inference ML-моделей с минимальной задержкой.
Uber обрабатывает подобные нагрузки круглосуточно в десятках городов одновременно, и стоимость inference — одна из ключевых строк в облачном бюджете компании. Снижение этой строки на 20-30% означает десятки миллионов долларов экономии ежегодно. Для Google и Oracle новость звучит как публичный укол.
Обе компании агрессивно наращивают AI-инфраструктуру, переманивая корпоративных клиентов. Google Cloud делает ставку на TPU четвёртого поколения и кластеры A3 на базе NVIDIA H100, Oracle — на суперкластеры A100/H100, позиционируя их как наиболее производительную AI-инфраструктуру в облаке. Выбор Uber в пользу AWS с его кастомными чипами — сигнал, что экономика AI-инфраструктуры начинает работать в пользу Amazon.
Amazon Web Services остаётся крупнейшим облачным провайдером с долей около 30% рынка по выручке. Но AI превратился в новое поле конкуренции: корпоративные клиенты перестраивают инфраструктуру и ищут способы снизить стоимость inference. Каждый крупный переход на кастомный кремний AWS — это рыночный сигнал и маркетинговый кейс для переговоров с другими предприятиями.
Uber в этом смысле — идеальная демонстрационная история для sales-команды Amazon. Uber входит в число наиболее технически нагруженных платформ в мире. Компания ежедневно обрабатывает миллионы поездок в 70+ странах, управляет Uber Eats и Uber Freight, ведёт масштабные R&D-программы в области автономного вождения.
Такой масштаб означает, что любой выбор платформы принимается после детального технического и финансового анализа. Когда Uber выбирает определённый тип AI-чипов, это не маркетинговое партнёрство — это инженерное решение с многолетними последствиями. Расширение партнёрства с AWS — ещё одно свидетельство того, что гонка за AI-инфраструктуру давно вышла за рамки привычного противостояния NVIDIA против всех остальных.
Amazon, Google и Microsoft строят собственные процессоры, и крупные технологические компании вынуждены делать конкретный выбор: чей кремний ляжет в основу их следующего AI-поколения. Uber выбрал Amazon.