Habr AI→ оригинал

أوضحت Runity كيف تطور مساعد RAG مؤسسيًا لـ Confluence وGitLab

كشفت Runity عن مساعد RAG مؤسسي يجمع البحث في Confluence وGitLab، ويتحقق من الوصول إلى كل مستند، ولا يرسل البيانات إلى خدمات خارجية. ويعتمد على نماذج Qwen محلية

◐ Слушать статью

Рунити рассказала, как превращает внутренний прототип в корпоративного RAG-ассистента для работы с документацией и кодом. Система ищет одновременно по Confluence и GitLab, учитывает права доступа и работает в закрытом контуре без отправки корпоративных данных во внешние сервисы.

От идеи к внедрению Проект вырос из вполне прикладной боли.

В начале 2025 года команде нужно было параллельно разбираться в старом сайте Руцентра и в ребрендинге Рег.ру: понять, что уже реализовано, где лежит актуальная документация и какие куски кода отвечают за конкретные функции. Поиск вручную занимал часы: в Confluence находились несколько версий одного документа, в GitLab приходилось продираться через ветки и легаси-код на устаревшем JavaScript.

Первые локальные нейросети, которые пропускала информационная безопасность, уже тогда помогли ускорить работу. По словам команды, технические задания для верстальщиков удалось подготовить за несколько дней вместо долгой ручной разметки и анализа. После этого внутри компании решили не ограничиваться точечными экспериментами и собрать отдельный продукт, который можно встроить в повседневную работу разработчиков и архитекторов.

Прототип, начавшийся как личная инициатива, позже вошёл в контур Центра гибридного интеллекта — внутреннего направления Рунити для AI-пилотов и прикладных сценариев с измеримым результатом.

Доступ и безопасность

Главный вопрос со стороны ИБ был предсказуемым: кто именно увидит корпоративные документы через такого ассистента. Команда решила это не отдельной политикой поверх модели, а на уровне архитектуры. Бот не хранит матрицу прав у себя.

Пользователь сам добавляет личные токены Confluence и GitLab, после чего система через API проверяет доступ к каждому найденному документу. Если доступа нет, этот фрагмент просто не попадает в контекст модели. По сути, решение о доступе принимает не LLM, а код.

Это снижает риск утечки и позволяет держать корпоративные данные внутри собственного контура. Компромисс здесь один: синхронные проверки замедляют ответ. Но команда утверждает, что даже в таком виде задача, на которую раньше уходило несколько часов, теперь укладывается в пять–семь минут.

После дополнительных доработок, логирования и правок интерфейса проект получил одобрение ИБ и пошёл в развёртывание.

«Если процесс можно описать как последовательность действий — его

можно автоматизировать».

Стек и сценарии

Внутри система работает по классической схеме RAG: запрос превращается в embedding, затем Qdrant подбирает близкие по смыслу документы из Confluence и GitLab, после чего слой безопасности отсекает всё лишнее, а модель формирует ответ со ссылками на конкретные источники. Такой подход выбран вместо файн-тюнинга: команде важнее актуальный контекст на момент запроса, чем дообучение модели на корпоративных данных. В стеке используются Python, Temporal, Qdrant, PostgreSQL, Next.

js, LangGraph и локально развернутые модели Qwen, а данные в векторной базе пока обновляются ночной пересборкой. Вместо одного универсального ассистента Рунити сделала четыре специализированных режима. Такой подход появился не из абстрактной архитектуры, а из запросов разных ролей внутри компании: разработчикам нужен помощник по коду, архитектуре — быстрый вход в текущий ландшафт, а руководителям — способ автоматически собирать техрадар по стеку и зависимостям в репозиториях.

Это также упрощает развитие продукта: отдельные сценарии легче тестировать, измерять и дорабатывать без попытки решить все задачи одним промптом. общий чат-бот для вопросов по внутренним документам и быстрого погружения в проект; агент для техрадара, который проходит по репозиториям и собирает картину по языкам и библиотекам; агент для архитектурного планирования, помогающий понять текущий ландшафт перед запуском нового проекта; напарник для программирования, который знает внутреннюю кодовую базу и требования команды. Цена такого решения тоже далека от «игрушки для экспериментов».

Для корпоративного режима с несколькими пользователями команда оценивает потребность примерно в четырёх GPU уровня A100 с 24 ГБ памяти, что даёт 160–200 тысяч рублей в месяц только на вычисления. Если своих GPU нет, порог входа для небольшого локального стенда начинается примерно от 500 тысяч рублей, а на разработку всё равно нужны бэкенд, фронтенд, ML- и дата-инженер.

Что это значит

Кейс Рунити показывает, что корпоративные AI-ассистенты быстро смещаются от идеи «просто прикрутить чат» к полноценным внутренним продуктам с RAG, проверкой прав и собственной инфраструктурой. На практике выигрывает не самая громкая AI-риторика, а связка из нормального поиска, безопасного доступа, актуальных данных и сценариев, которые реально экономят часы работы команде. Для рынка это ещё один сигнал: корпоративный AI всё чаще превращается из пилота в инженерный продукт с понятной стоимостью и зонами ответственности.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…