AWS Machine Learning Blog→ оригинал

Amazon Bedrock AgentCore Runtime ahora soporta MCP-proxies sin servidor

AWS publicó una guía para desplegar MCP-proxies en Amazon Bedrock AgentCore Runtime — sin servidor y con control de seguridad total. El proxy crea una capa prog

Amazon Bedrock AgentCore Runtime ahora soporta MCP-proxies sin servidor
Источник: AWS Machine Learning Blog. Коллаж: Hamidun News.

Amazon Web Services опубликовала подробное руководство по развёртыванию кастомных MCP-прокси в Amazon Bedrock AgentCore Runtime. Новый подход позволяет компаниям добавить программируемый слой управления между AI-агентами и внешними инструментами — без необходимости поднимать и обслуживать собственную инфраструктуру.

Почему прокси стал необходим

Model Context Protocol превратился в главный стандарт для подключения AI-агентов к внешним системам. С его помощью агенты получают доступ к файловым системам, базам данных, корпоративным API, сервисам мониторинга и тысячам других инструментов. Проблема в том, что прямое подключение агента к MCP-серверу — это слепая зона для безопасности.

Когда агент напрямую обращается к инструменту, у организации нет: Централизованного журнала всех запросов и ответов Возможности применить политики доступа Инструментов для обнаружения аномалий в поведении агента Точки для фильтрации чувствительных данных * Контроля над объёмом потребляемых ресурсов Для пилотных проектов это терпимо. Для production-деплоев в регулируемой среде — неприемлемо. MCP-прокси закрывает этот пробел.

Он перехватывает все вызовы между агентом и инструментами, позволяя применять любую бизнес-логику: аутентификацию запросов, аудит вызовов, маскирование PII, rate-limiting по ролям и командам. При этом агент не знает о наличии прокси — его интерфейс остаётся стандартным MCP.

Amazon

Bedrock AgentCore Runtime AgentCore Runtime — это управляемая среда выполнения в составе Amazon Bedrock, разработанная специально под рабочие нагрузки AI-агентов. В отличие от обобщённых сервисов вроде Lambda или ECS, AgentCore понимает жизненный цикл агентных сессий, умеет управлять контекстом и предоставляет observability-инструменты прямо в экосистеме AWS. Запуск MCP-прокси на AgentCore Runtime добавляет к этому: Serverless-масштабирование — прокси автоматически масштабируется под нагрузку, серверы не нужны Интеграция с AWS IAM — управление правами доступа через стандартные политики без кастомного кода CloudWatch Logs и Metrics — централизованные логи и метрики из коробки AWS X-Ray — distributed tracing для диагностики цепочек вызовов агентов * VPC-интеграция — изоляция прокси в приватной сети организации Для enterprise-команд это означает, что весь compliance-стек AWS (аудит, шифрование, управление ключами) автоматически применяется к взаимодействию агентов с инструментами.

Как это работает Технически схема прямолинейна.

Разработчик пишет прокси-сервис, который принимает MCP-запрос от агента, проверяет права и применяет политики организации, при необходимости трансформирует запрос, пересылает его к целевому MCP-серверу, получает ответ, логирует и возвращает агенту. Сервис упаковывается в Docker-контейнер и деплоится в AgentCore Runtime. Дальше агенты настраиваются на работу через прокси-эндпоинт вместо прямого адреса MCP-сервера.

«Это даёт программируемый слой для реализации корректного управления, контролей и наблюдаемости, согласованных с политиками безопасности организации» — AWS Machine Learning Blog.

Ключевое архитектурное преимущество — централизация. Вместо того чтобы встраивать логику безопасности в каждый агент или каждое приложение отдельно, организация настраивает единый прокси на бизнес-единицу или весь enterprise. Изменение политики применяется сразу ко всем агентам, которые через него работают.

Что это значит AWS последовательно выстраивает enterprise-слой для

AI-агентов: инфраструктура запуска, управление памятью, инструменты безопасности. Поддержка кастомных MCP-прокси в AgentCore Runtime — прагматичный ответ на реальный запрос корпоративных команд: как внедрить AI-агентов в production без компромиссов с требованиями безопасности и аудита. Для компаний, уже работающих на AWS, это снижает порог входа — не нужно проектировать governance-слой с нуля, достаточно следовать задокументированному паттерну.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…