Habr AI→ оригинал

Как российская ИТ-компания превратила корпоративные знания в работающую RAG-систему

Компания «Цифра», работающая в сфере промышленной цифровизации, представила детальный разбор своей корпоративной RAG-системы. Вместо дорогостоящего дообучения я

Как российская ИТ-компания превратила корпоративные знания в работающую RAG-систему
Источник: Habr AI. Коллаж: Hamidun News.

Проблема корпоративной памяти знакома любой технологической компании, которая перешагнула порог в сотню сотрудников. Документация разбросана по десяткам систем, экспертиза заперта в головах ключевых людей, а новый инженер тратит недели, чтобы найти ответ на вопрос, который кто-то уже решал полгода назад. Инженеры компании «Цифра» — российского разработчика платформенных решений для промышленности — решили атаковать эту проблему системно и построили полноценный RAG-пайплайн для внутреннего использования.

RAG, или Retrieval-Augmented Generation, давно перестал быть экзотикой в мире корпоративного AI. Идея проста: вместо того чтобы надеяться, что языковая модель «помнит» нужную информацию, система сначала находит релевантные документы в базе знаний, а затем передаёт их в качестве контекста для генерации ответа. Однако между красивой архитектурной диаграммой и работающим продуктом лежит пропасть инженерных решений, и именно эти детали делают кейс «Цифры» по-настоящему ценным для индустрии.

Архитектура системы, описанная ведущим инженером учебного центра Дмитрием Омаровым и его коллегой Фёдором Арефьевым, строится на нескольких ключевых принципах. Первый и, пожалуй, самый важный — осознанный отказ от дообучения языковых моделей. Файнтюнинг корпоративной LLM звучит привлекательно в презентациях, но на практике это дорогостоящий процесс, требующий постоянного обновления при каждом изменении документации. Команда сделала ставку на динамическую базу знаний: документы индексируются, превращаются в векторные представления и хранятся локально. Когда сотрудник задаёт вопрос, система находит наиболее релевантные фрагменты через векторный поиск, затем пропускает результаты через этап реранкинга — дополнительного ранжирования, которое отсеивает шум и повышает точность выдачи. Только после этого собранный контекст отправляется в облачную языковую модель для генерации финального ответа.

Отдельного внимания заслуживает подход к информационной безопасности — болезненной теме для любой компании, работающей с промышленными заказчиками. Отправлять внутренние документы в облачный AI-сервис без фильтрации — это прямой путь к утечке данных. Инженеры «Цифры» реализовали локальный слой очистки: прежде чем контекст покинет периметр компании, из него автоматически удаляется чувствительная информация. Это элегантное решение, позволяющее использовать мощь облачных LLM без компромиссов в области безопасности. По сути, компания получает лучшее из двух миров: локальный контроль над данными и качество генерации, которое обеспечивают только крупные облачные модели.

Борьба с галлюцинациями — ещё один фронт, на котором команда добилась заметных результатов. Языковые модели склонны генерировать правдоподобно звучащую, но фактически неверную информацию, и в корпоративном контексте это недопустимо. Неправильная ссылка на регламент или ошибочная техническая рекомендация может привести к реальным последствиям на производстве. Решение оказалось отчасти инженерным, отчасти методологическим: тщательно продуманный системный промпт жёстко ограничивает модель, требуя опираться исключительно на предоставленный контекст и сопровождать каждый ответ ссылками на первоисточники. Если в базе знаний нет информации для ответа, модель должна честно признать это, а не фантазировать.

Этот кейс важен не столько конкретными техническими решениями, сколько общим подходом. Российские компании работают в специфических условиях: доступ к ведущим облачным AI-платформам ограничен, требования регуляторов к обработке данных строги, а бюджеты на AI-инфраструктуру далеко не безграничны. В этой реальности RAG-системы с локальным поисковым слоем и контролируемым взаимодействием с облаком становятся, по сути, стандартной архитектурой. Они позволяют балансировать между качеством, стоимостью и безопасностью — тремя параметрами, которые в корпоративном AI почти всегда находятся в конфликте друг с другом.

Опыт «Цифры» также демонстрирует более широкий тренд: корпоративный AI в 2026 году — это уже не про эксперименты с чат-ботами, а про инфраструктуру управления знаниями. Компании, которые научатся делать свою коллективную экспертизу доступной через интеллектуальный поиск, получат измеримое конкурентное преимущество. Время адаптации новых сотрудников сокращается, повторное решение уже решённых задач уходит в прошлое, а критическая информация перестаёт быть заложницей отдельных экспертов. По сути, RAG-система превращает корпоративную память из пассивного архива в активный рабочий инструмент — и именно в этом заключается её настоящая ценность.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…