AWS enseña a Strands Agents a trabajar con cualquier modelo en SageMaker
AWS publicó una guía para crear parsers personalizados para el framework Strands Agents, lo que permite integrar cualquier LLM desplegado en SageMaker AI, inclu

Корпоративный мир AI-агентов переживает момент, который можно сравнить с появлением универсальных адаптеров для электроники: Amazon Web Services показала, как заставить свой агентный фреймворк Strands Agents работать буквально с любой языковой моделью, развёрнутой на SageMaker, даже если эта модель понятия не имеет о стандартном API платформы Bedrock.
Чтобы понять значимость этого шага, нужно вернуться на несколько месяцев назад. AWS запустила Strands Agents как открытый фреймворк для создания AI-агентов — программ, способных самостоятельно планировать действия, использовать инструменты и решать многоэтапные задачи. Фреймворк изначально был заточен под модели, доступные через Amazon Bedrock, что создавало удобную, но замкнутую экосистему. Компании, которые хотели использовать собственные fine-tuned модели или открытые LLM вроде Llama, развёрнутые на SageMaker AI endpoints, оказывались перед стеной несовместимости форматов.
Новое руководство, опубликованное в блоге AWS Machine Learning, решает именно эту проблему. Инженеры Amazon подробно описывают процесс создания так называемых кастомных model parsers — промежуточных слоёв, которые транслируют запросы Strands Agents в формат, понятный конкретной модели, и обратно преобразуют ответы модели в структуру, ожидаемую фреймворком. По сути, это переводчик между двумя системами, говорящими на разных языках.
В качестве практического примера AWS демонстрирует развёртывание Llama 3.1 с использованием SGLang — высокопроизводительного движка для инференса языковых моделей — на инфраструктуре SageMaker. Для упрощения процесса контейнеризации используется инструмент ml-container-creator из лаборатории AWS Labs, который автоматизирует создание Docker-контейнеров для ML-моделей. После развёртывания модели разработчик реализует кастомный парсер, который перехватывает вызовы Strands Agents, переформатирует их из Bedrock Messages API в формат, совместимый с SGLang endpoint, получает ответ и преобразует его обратно. Технически это не rocket science, но без чёткой документации и примеров процесс мог превратиться в многодневную отладку.
Почему это действительно важно? Потому что в корпоративной среде одна модель редко решает все задачи. Компании обучают специализированные модели на своих данных, экспериментируют с открытыми архитектурами, комбинируют несколько моделей в одном рабочем процессе. До сих пор использование таких моделей в агентных сценариях на AWS требовало либо перехода на Bedrock-совместимые форматы, либо написания собственной оркестрации с нуля. Теперь появился стандартизированный способ подключить практически любую LLM к агентному фреймворку, сохраняя все преимущества Strands — управление инструментами, цепочки рассуждений, обработку ошибок.
Этот шаг вписывается в более широкую стратегию AWS по превращению своей ML-платформы в максимально открытую экосистему. Amazon явно осознала, что попытка запереть клиентов в рамках Bedrock контрпродуктивна в мире, где новые открытые модели появляются каждую неделю, а корпорации всё активнее инвестируют в собственные fine-tuned решения. Вместо того чтобы конкурировать с каждой новой моделью, AWS предлагает инфраструктуру, на которой можно запустить что угодно, и теперь — агентный фреймворк, который с этим «чем угодно» умеет работать.
Стоит отметить и конкурентный контекст. Google с Vertex AI Agent Builder и Microsoft с AutoGen и Semantic Kernel активно развивают собственные агентные платформы. Однако подход AWS с открытыми кастомными парсерами выглядит более гибким: вместо того чтобы диктовать, какие модели использовать, Amazon даёт инструменты для интеграции любых. Это может стать решающим аргументом для enterprise-клиентов, которые не хотят зависеть от одного поставщика моделей.
В перспективе можно ожидать появления готовых парсеров для популярных открытых моделей и инференс-движков — сообщество наверняка начнёт создавать библиотеку совместимых конфигураций. Для рынка AI-агентов это означает ещё один шаг к зрелости: технология перестаёт быть привилегией тех, кто использует конкретную модель от конкретного провайдера, и становится доступной любой команде, готовой развернуть LLM на облачной инфраструктуре.