كيف ساعدت Just AI بنكاً على كسر سقف الأتمتة باستخدام وكلاء LLM
شرح فريق Just AI كيفية مساعدتهم بنكاً كبيراً على الهروب من فخ أتمتة NLU. تم نقل دعم الاسترجاع النقدي إلى وكلاء LLM: يفهمون الدلالات، يحافظون على السياق، ولا يرس

Команда Just AI опубликовала разбор реального кейса: как перевести клиентскую поддержку банка с NLU-ботов на LLM-агентов и при этом не получить волну галлюцинаций вместо роста автоматизации.
Потолок, который не объехать
Когда NLU-сценарий разрастается до нескольких сотен веток, добавление новых диалогов перестаёт помогать. Бот начинает ошибаться на граничных случаях, требует постоянной поддержки разметки и не справляется с нестандартными формулировками. Процент автоматизации замирает. Банк столкнулся именно с этим: зрелая NLU-система по кешбэку упёрлась в предел. Проблема была не в качестве настройки — проблема была в архитектуре. Классические NLU-боты работают по жёстким правилам: они умеют распознавать намерения, которым их обучили, но плохо справляются с семантическими вариациями и контекстом внутри длинного диалога.
Что изменилось с LLM-агентами Just AI предложила переход на архитектуру с LLM-агентами.
Вместо жёсткого дерева сценариев — языковая модель, которая понимает смысл запроса, удерживает контекст и генерирует ответ по актуальной базе знаний. Ключевые изменения в системе: NLU-классификатор заменён на LLM-понимание — включая перефразировки и нестандартные формулировки Поддержка многоходовых диалогов с сохранением контекста Ответы строятся по базе знаний банка, а не по захардкоженным скриптам Введён агент-судья, который проверяет каждый ответ перед отправкой * Если ответ не подтверждается источником — он блокируется, клиент уходит к оператору ## Агент-судья против галлюцинаций Главный риск при внедрении LLM в банковскую поддержку — галлюцинации: модель может уверенно сообщить неверные условия кешбэка или несуществующие правила. Для банка это не просто плохой UX — это регуляторные и репутационные риски.
Just AI решила проблему через двухуровневую проверку. Первый агент генерирует ответ. Второй — агент-судья — верифицирует его по исходной базе знаний.
Клиент получает либо корректный ответ, либо перевод на живого оператора.
«Потолок автоматизации — это не баг, это архитектурный предел NLU.
Мы помогли банку его пробить, сменив технологию, а не подкручивая настройки», — Just AI.
Что это значит Переход от NLU-ботов к LLM-агентам — это не апгрейд, а смена парадигмы.
Для банков и других regulated-компаний это возможно только при встроенном контроле качества: агент-судья здесь становится обязательным архитектурным элементом, а не опцией.