AWS учит Strands Agents работать с любыми моделями на SageMaker
AWS опубликовала руководство по созданию кастомных парсеров для фреймворка Strands Agents, позволяющих интегрировать любые LLM, развёрнутые на SageMaker AI, вкл

Корпоративный мир AI-агентов переживает момент, который можно сравнить с появлением универсальных адаптеров для электроники: Amazon Web Services показала, как заставить свой агентный фреймворк Strands Agents работать буквально с любой языковой моделью, развёрнутой на SageMaker, даже если эта модель понятия не имеет о стандартном API платформы Bedrock.
Чтобы понять значимость этого шага, нужно вернуться на несколько месяцев назад. AWS запустила Strands Agents как открытый фреймворк для создания AI-агентов — программ, способных самостоятельно планировать действия, использовать инструменты и решать многоэтапные задачи. Фреймворк изначально был заточен под модели, доступные через Amazon Bedrock, что создавало удобную, но замкнутую экосистему. Компании, которые хотели использовать собственные fine-tuned модели или открытые LLM вроде Llama, развёрнутые на SageMaker AI endpoints, оказывались перед стеной несовместимости форматов.
Новое руководство, опубликованное в блоге AWS Machine Learning, решает именно эту проблему. Инженеры Amazon подробно описывают процесс создания так называемых кастомных model parsers — промежуточных слоёв, которые транслируют запросы Strands Agents в формат, понятный конкретной модели, и обратно преобразуют ответы модели в структуру, ожидаемую фреймворком. По сути, это переводчик между двумя системами, говорящими на разных языках.
В качестве практического примера AWS демонстрирует развёртывание Llama 3.1 с использованием SGLang — высокопроизводительного движка для инференса языковых моделей — на инфраструктуре SageMaker. Для упрощения процесса контейнеризации используется инструмент ml-container-creator из лаборатории AWS Labs, который автоматизирует создание Docker-контейнеров для ML-моделей. После развёртывания модели разработчик реализует кастомный парсер, который перехватывает вызовы Strands Agents, переформатирует их из Bedrock Messages API в формат, совместимый с SGLang endpoint, получает ответ и преобразует его обратно. Технически это не rocket science, но без чёткой документации и примеров процесс мог превратиться в многодневную отладку.
Почему это действительно важно? Потому что в корпоративной среде одна модель редко решает все задачи. Компании обучают специализированные модели на своих данных, экспериментируют с открытыми архитектурами, комбинируют несколько моделей в одном рабочем процессе. До сих пор использование таких моделей в агентных сценариях на AWS требовало либо перехода на Bedrock-совместимые форматы, либо написания собственной оркестрации с нуля. Теперь появился стандартизированный способ подключить практически любую LLM к агентному фреймворку, сохраняя все преимущества Strands — управление инструментами, цепочки рассуждений, обработку ошибок.
Этот шаг вписывается в более широкую стратегию AWS по превращению своей ML-платформы в максимально открытую экосистему. Amazon явно осознала, что попытка запереть клиентов в рамках Bedrock контрпродуктивна в мире, где новые открытые модели появляются каждую неделю, а корпорации всё активнее инвестируют в собственные fine-tuned решения. Вместо того чтобы конкурировать с каждой новой моделью, AWS предлагает инфраструктуру, на которой можно запустить что угодно, и теперь — агентный фреймворк, который с этим «чем угодно» умеет работать.
Стоит отметить и конкурентный контекст. Google с Vertex AI Agent Builder и Microsoft с AutoGen и Semantic Kernel активно развивают собственные агентные платформы. Однако подход AWS с открытыми кастомными парсерами выглядит более гибким: вместо того чтобы диктовать, какие модели использовать, Amazon даёт инструменты для интеграции любых. Это может стать решающим аргументом для enterprise-клиентов, которые не хотят зависеть от одного поставщика моделей.
В перспективе можно ожидать появления готовых парсеров для популярных открытых моделей и инференс-движков — сообщество наверняка начнёт создавать библиотеку совместимых конфигураций. Для рынка AI-агентов это означает ещё один шаг к зрелости: технология перестаёт быть привилегией тех, кто использует конкретную модель от конкретного провайдера, и становится доступной любой команде, готовой развернуть LLM на облачной инфраструктуре.