Habr AI→ оригинал

How Just AI Helped a Bank Break Through Automation Ceiling with LLM-Agents

Just AI's team described how it helped a major bank escape the NLU-automation trap. Cashback support was migrated to LLM-agents: they understand semantics, main

How Just AI Helped a Bank Break Through Automation Ceiling with LLM-Agents
Источник: Habr AI. Коллаж: Hamidun News.

Команда Just AI опубликовала разбор реального кейса: как перевести клиентскую поддержку банка с NLU-ботов на LLM-агентов и при этом не получить волну галлюцинаций вместо роста автоматизации.

Потолок, который не объехать

Когда NLU-сценарий разрастается до нескольких сотен веток, добавление новых диалогов перестаёт помогать. Бот начинает ошибаться на граничных случаях, требует постоянной поддержки разметки и не справляется с нестандартными формулировками. Процент автоматизации замирает. Банк столкнулся именно с этим: зрелая NLU-система по кешбэку упёрлась в предел. Проблема была не в качестве настройки — проблема была в архитектуре. Классические NLU-боты работают по жёстким правилам: они умеют распознавать намерения, которым их обучили, но плохо справляются с семантическими вариациями и контекстом внутри длинного диалога.

Что изменилось с LLM-агентами Just AI предложила переход на архитектуру с LLM-агентами.

Вместо жёсткого дерева сценариев — языковая модель, которая понимает смысл запроса, удерживает контекст и генерирует ответ по актуальной базе знаний. Ключевые изменения в системе: NLU-классификатор заменён на LLM-понимание — включая перефразировки и нестандартные формулировки Поддержка многоходовых диалогов с сохранением контекста Ответы строятся по базе знаний банка, а не по захардкоженным скриптам Введён агент-судья, который проверяет каждый ответ перед отправкой * Если ответ не подтверждается источником — он блокируется, клиент уходит к оператору ## Агент-судья против галлюцинаций Главный риск при внедрении LLM в банковскую поддержку — галлюцинации: модель может уверенно сообщить неверные условия кешбэка или несуществующие правила. Для банка это не просто плохой UX — это регуляторные и репутационные риски.

Just AI решила проблему через двухуровневую проверку. Первый агент генерирует ответ. Второй — агент-судья — верифицирует его по исходной базе знаний.

Клиент получает либо корректный ответ, либо перевод на живого оператора.

«Потолок автоматизации — это не баг, это архитектурный предел NLU.

Мы помогли банку его пробить, сменив технологию, а не подкручивая настройки», — Just AI.

Что это значит Переход от NLU-ботов к LLM-агентам — это не апгрейд, а смена парадигмы.

Для банков и других regulated-компаний это возможно только при встроенном контроле качества: агент-судья здесь становится обязательным архитектурным элементом, а не опцией.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…