AWS Machine Learning Blog→ оригинал

Ring trasladó el soporte de 10 regiones a Amazon Bedrock Knowledge Bases y redujo costos

Ring trasladó su soporte global self-service a Amazon Bedrock Knowledge Bases y abandonó la infraestructura separada por regiones. La empresa filtra el contenid

◐ Слушать статью

Ring рассказала, как перестроила глобальную клиентскую поддержку с rule-based чатбота на RAG-систему поверх Amazon Bedrock Knowledge Bases. Вместо отдельной инфраструктуры под каждый рынок компания оставила одну централизованную архитектуру, сохранила региональную точность ответов и снизила стоимость масштабирования на 21% для каждого нового рынка.

Почему старый бот не тянул

Изначально служба поддержки Ring опиралась на чатбота на Amazon Lex с жестко заданными сценариями. Такой подход работал, пока запросы оставались предсказуемыми, но быстро уперся в потолок: во время пиковых нагрузок 16% диалогов приходилось переводить на живых операторов, а инженеры тратили около 10% своего времени на поддержку и правку самого бота. Для международного сервиса это стало слишком дорогой и медленной моделью. Проблема была не только в переводе интерфейса. Для разных рынков нужны свои ответы с учетом локальных параметров: от спецификаций устройств и напряжения до требований по сертификации и регуляторике. Ring уже работала в Великобритании, Германии и еще восьми регионах, и держать отдельную инфраструктуру под каждый рынок означало наращивать расходы и операционную сложность почти линейно.

Как собрали новую схему В новой архитектуре

Ring разделила работу с контентом на два контура: ingestion и evaluation отдельно, promotion в прод отдельно. Команда контента загружает инструкции, гайды и статьи поддержки в Amazon S3 в структурированном формате, где у каждого документа есть метаданные, включая `contentLocale`. Дальше AWS Lambda автоматически раскладывает сырой контент и извлеченные метаданные по нужным бакетам, а Step Functions каждый день собирает новую версию базы знаний.

  • Контент загружается в S3 вместе с метаданными локали и типа документа Lambda архивирует сырой файл и сохраняет очищенные данные для индексации Step Functions ежедневно создает новую версию Knowledge Base Оценочные датасеты прогоняют запросы по версиям и сравнивают качество выдачи Лучшая версия попадает в Golden Data Source для продакшена Такой пайплайн дал Ring возможность обновлять знания без ручного выката и без риска сломать прод. Каждая дневная версия живет как отдельная база знаний, поэтому ее можно независимо тестировать и откатывать. История хранится до 30 дней — этого хватает, потому что контент меняется примерно 200 раз в неделю. Для автоматической проверки качества Ring использует модель Anthropic Claude Sonnet 4 в роли judge: она сравнивает версии по точности поиска, качеству ответа и метрикам по каждой локали.

Как бот выбирает ответ На пользовательской стороне схема тоже сделана максимально прагматично.

Клиент отправляет вопрос в чатбот, а вместе с ним передается рынок, например `en-GB`. Lambda не ищет по всей базе вслепую, а применяет metadata-driven фильтр по полю `contentLocale`, чтобы запрос сразу шел только по релевантному региональному корпусу. После этого система забирает найденные фрагменты из проверенной Golden-версии, сортирует их по score, собирает расширенный prompt и уже затем отправляет его в модель Amazon Bedrock для финального ответа.

Ring отдельно отмечает, что требование по полной задержке ответа составляло 7–8 секунд, и анализ показал важную вещь: межрегиональная задержка давала меньше 10% от общего времени ответа. Это позволило не дублировать всю архитектуру в каждом регионе, а оставить единый центр обработки запросов. В качестве векторного хранилища компания использует Amazon OpenSearch Serverless, а для эмбеддингов — Amazon Titan Embeddings со стандартным chunking.

Дальше систему планируют развивать в сторону agentic-подхода, где отдельные специализированные агенты будут отвечать за диагностику устройств, управление заказами и рекомендации продуктов.

Что это значит

Кейс Ring полезен не как витрина AWS, а как рабочий шаблон для любой компании с международной поддержкой. Главная идея простая: не плодить отдельные RAG-системы по странам, а держать одну базу с жесткой фильтрацией по метаданным, ежедневной оценкой новых версий и понятным механизмом promotion в прод. Это снижает стоимость масштабирования, упрощает сопровождение и делает ответы предсказуемее на каждом рынке.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…