Amazon Bedrock AgentCore Runtime now supports serverless MCP-proxies
AWS published a guide for deploying MCP-proxies in Amazon Bedrock AgentCore Runtime — serverless with full security control. The proxy creates a programmable la

Amazon Web Services опубликовала подробное руководство по развёртыванию кастомных MCP-прокси в Amazon Bedrock AgentCore Runtime. Новый подход позволяет компаниям добавить программируемый слой управления между AI-агентами и внешними инструментами — без необходимости поднимать и обслуживать собственную инфраструктуру.
Почему прокси стал необходим
Model Context Protocol превратился в главный стандарт для подключения AI-агентов к внешним системам. С его помощью агенты получают доступ к файловым системам, базам данных, корпоративным API, сервисам мониторинга и тысячам других инструментов. Проблема в том, что прямое подключение агента к MCP-серверу — это слепая зона для безопасности.
Когда агент напрямую обращается к инструменту, у организации нет: Централизованного журнала всех запросов и ответов Возможности применить политики доступа Инструментов для обнаружения аномалий в поведении агента Точки для фильтрации чувствительных данных * Контроля над объёмом потребляемых ресурсов Для пилотных проектов это терпимо. Для production-деплоев в регулируемой среде — неприемлемо. MCP-прокси закрывает этот пробел.
Он перехватывает все вызовы между агентом и инструментами, позволяя применять любую бизнес-логику: аутентификацию запросов, аудит вызовов, маскирование PII, rate-limiting по ролям и командам. При этом агент не знает о наличии прокси — его интерфейс остаётся стандартным MCP.
Amazon
Bedrock AgentCore Runtime AgentCore Runtime — это управляемая среда выполнения в составе Amazon Bedrock, разработанная специально под рабочие нагрузки AI-агентов. В отличие от обобщённых сервисов вроде Lambda или ECS, AgentCore понимает жизненный цикл агентных сессий, умеет управлять контекстом и предоставляет observability-инструменты прямо в экосистеме AWS. Запуск MCP-прокси на AgentCore Runtime добавляет к этому: Serverless-масштабирование — прокси автоматически масштабируется под нагрузку, серверы не нужны Интеграция с AWS IAM — управление правами доступа через стандартные политики без кастомного кода CloudWatch Logs и Metrics — централизованные логи и метрики из коробки AWS X-Ray — distributed tracing для диагностики цепочек вызовов агентов * VPC-интеграция — изоляция прокси в приватной сети организации Для enterprise-команд это означает, что весь compliance-стек AWS (аудит, шифрование, управление ключами) автоматически применяется к взаимодействию агентов с инструментами.
Как это работает Технически схема прямолинейна.
Разработчик пишет прокси-сервис, который принимает MCP-запрос от агента, проверяет права и применяет политики организации, при необходимости трансформирует запрос, пересылает его к целевому MCP-серверу, получает ответ, логирует и возвращает агенту. Сервис упаковывается в Docker-контейнер и деплоится в AgentCore Runtime. Дальше агенты настраиваются на работу через прокси-эндпоинт вместо прямого адреса MCP-сервера.
«Это даёт программируемый слой для реализации корректного управления, контролей и наблюдаемости, согласованных с политиками безопасности организации» — AWS Machine Learning Blog.
Ключевое архитектурное преимущество — централизация. Вместо того чтобы встраивать логику безопасности в каждый агент или каждое приложение отдельно, организация настраивает единый прокси на бизнес-единицу или весь enterprise. Изменение политики применяется сразу ко всем агентам, которые через него работают.
Что это значит AWS последовательно выстраивает enterprise-слой для
AI-агентов: инфраструктура запуска, управление памятью, инструменты безопасности. Поддержка кастомных MCP-прокси в AgentCore Runtime — прагматичный ответ на реальный запрос корпоративных команд: как внедрить AI-агентов в production без компромиссов с требованиями безопасности и аудита. Для компаний, уже работающих на AWS, это снижает порог входа — не нужно проектировать governance-слой с нуля, достаточно следовать задокументированному паттерну.