AWS Machine Learning Blog→ оригинал

نقلت Ring دعم 10 مناطق إلى Amazon Bedrock Knowledge Bases وخفضت التكاليف

نقلت Ring دعم الخدمة الذاتية العالمي إلى Amazon Bedrock Knowledge Bases وتخلت عن بنية تحتية منفصلة حسب المنطقة. وتقوم الشركة بتصفية المحتوى عبر بيانات التعريف `

◐ Слушать статью

Ring рассказала, как перестроила глобальную клиентскую поддержку с rule-based чатбота на RAG-систему поверх Amazon Bedrock Knowledge Bases. Вместо отдельной инфраструктуры под каждый рынок компания оставила одну централизованную архитектуру, сохранила региональную точность ответов и снизила стоимость масштабирования на 21% для каждого нового рынка.

Почему старый бот не тянул

Изначально служба поддержки Ring опиралась на чатбота на Amazon Lex с жестко заданными сценариями. Такой подход работал, пока запросы оставались предсказуемыми, но быстро уперся в потолок: во время пиковых нагрузок 16% диалогов приходилось переводить на живых операторов, а инженеры тратили около 10% своего времени на поддержку и правку самого бота. Для международного сервиса это стало слишком дорогой и медленной моделью. Проблема была не только в переводе интерфейса. Для разных рынков нужны свои ответы с учетом локальных параметров: от спецификаций устройств и напряжения до требований по сертификации и регуляторике. Ring уже работала в Великобритании, Германии и еще восьми регионах, и держать отдельную инфраструктуру под каждый рынок означало наращивать расходы и операционную сложность почти линейно.

Как собрали новую схему В новой архитектуре

Ring разделила работу с контентом на два контура: ingestion и evaluation отдельно, promotion в прод отдельно. Команда контента загружает инструкции, гайды и статьи поддержки в Amazon S3 в структурированном формате, где у каждого документа есть метаданные, включая `contentLocale`. Дальше AWS Lambda автоматически раскладывает сырой контент и извлеченные метаданные по нужным бакетам, а Step Functions каждый день собирает новую версию базы знаний.

  • Контент загружается в S3 вместе с метаданными локали и типа документа Lambda архивирует сырой файл и сохраняет очищенные данные для индексации Step Functions ежедневно создает новую версию Knowledge Base Оценочные датасеты прогоняют запросы по версиям и сравнивают качество выдачи Лучшая версия попадает в Golden Data Source для продакшена Такой пайплайн дал Ring возможность обновлять знания без ручного выката и без риска сломать прод. Каждая дневная версия живет как отдельная база знаний, поэтому ее можно независимо тестировать и откатывать. История хранится до 30 дней — этого хватает, потому что контент меняется примерно 200 раз в неделю. Для автоматической проверки качества Ring использует модель Anthropic Claude Sonnet 4 в роли judge: она сравнивает версии по точности поиска, качеству ответа и метрикам по каждой локали.

Как бот выбирает ответ На пользовательской стороне схема тоже сделана максимально прагматично.

Клиент отправляет вопрос в чатбот, а вместе с ним передается рынок, например `en-GB`. Lambda не ищет по всей базе вслепую, а применяет metadata-driven фильтр по полю `contentLocale`, чтобы запрос сразу шел только по релевантному региональному корпусу. После этого система забирает найденные фрагменты из проверенной Golden-версии, сортирует их по score, собирает расширенный prompt и уже затем отправляет его в модель Amazon Bedrock для финального ответа.

Ring отдельно отмечает, что требование по полной задержке ответа составляло 7–8 секунд, и анализ показал важную вещь: межрегиональная задержка давала меньше 10% от общего времени ответа. Это позволило не дублировать всю архитектуру в каждом регионе, а оставить единый центр обработки запросов. В качестве векторного хранилища компания использует Amazon OpenSearch Serverless, а для эмбеддингов — Amazon Titan Embeddings со стандартным chunking.

Дальше систему планируют развивать в сторону agentic-подхода, где отдельные специализированные агенты будут отвечать за диагностику устройств, управление заказами и рекомендации продуктов.

Что это значит

Кейс Ring полезен не как витрина AWS, а как рабочий шаблон для любой компании с международной поддержкой. Главная идея простая: не плодить отдельные RAG-системы по странам, а держать одну базу с жесткой фильтрацией по метаданным, ежедневной оценкой новых версий и понятным механизмом promotion в прод. Это снижает стоимость масштабирования, упрощает сопровождение и делает ответы предсказуемее на каждом рынке.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…