Habr AI→ оригинал

Habr AI: ontologies could become memory for LLMs, robots, and enterprise assistants

Ontological memory is a bet on the next stage of AI systems after RAG. Instead of storing long logs, the article proposes a world model made up of entities, rel

◐ Слушать статью

Онтологии всё чаще обсуждают не как формат для базы знаний, а как отдельный слой памяти для ИИ-систем. Идея проста: если модель должна помнить пользователя, состояние среды и историю решений, одного текстового контекста уже мало.

Почему RAG мало

Большие языковые модели уверенно работают, пока задача помещается в текущее окно контекста. Но как только взаимодействие растягивается на недели или месяцы, появляются типичные сбои: модель теряет детали, пересобирает факты по косвенным признакам, повторно задаёт уже закрытые вопросы и хуже учитывает личные особенности пользователя. Хранить всё в виде длинных логов неудобно, а постоянные пересказы через summarization pipeline неизбежно выкидывают часть важных связей. Для агента, который должен вести человека, процесс или устройство во времени, это уже не мелкая погрешность, а архитектурное ограничение.

«RAG дал языковым моделям доступ к данным.

Онтологии могут дать им память.» Вместо очередного слоя текстовых сводок автор предлагает хранить знания как структуру сущностей, событий, отношений и изменений состояния. В таком подходе система запоминает не только слова из прошлой переписки, но и модель происходящего: кто перед ней, что уже сделано, какие решения были приняты, какие ограничения действуют сейчас и что изменилось с прошлого сеанса. Это переводит память из режима архива в режим рабочей карты мира, к которой модель может обращаться при каждом новом действии.

Где это работает Самый понятный пример — обучающий бот.

Если он общается со студентом месяцами, ему мало помнить фрагменты диалога. Нужна накопительная картина прогресса: какие темы уже усвоены, где ошибки повторяются, какие объяснения сработали, а какие нет. Та же логика подходит для клиентской поддержки и корпоративных ассистентов, где история контакта быстро становится слишком длинной даже для человека, не говоря уже о модели, которая каждый раз начинает почти заново.

  • Профиль пользователя и его цели Освоенные темы, пробелы и устойчивые ошибки Договорённости, статусы и прошлые решения Успешные способы объяснения или ответа Связи между объектами, правилами, рисками и действиями Ещё нагляднее это видно в робототехнике. Роботу мало «догадываться» по статистике, что яйца, сковорода и плита связаны со сценарием приготовления еды. Для демо этого хватает, для реальной среды — нет. Ему нужна дообучаемая модель мира, где объект описан через функцию, свойства, допустимые сценарии и ограничения. Если робот попадает в новый склад, цех или квартиру, такая память помогает не просто распознавать предметы, а понимать, как с ними можно и нельзя взаимодействовать.

Зачем это бизнесу

Идея особенно важна для компаний, которые хотят использовать ИИ внутри закрытого контура. Банки, промышленные предприятия, инженерные команды и любые организации с чувствительными данными не всегда готовы отдавать информацию внешним облачным моделям. При этом локальные LLM часто слабее топовых сервисов.

Онтологический слой здесь работает как усилитель: часть «интеллекта» переносится из весов модели во внешнюю структуру знаний, и даже компактная on-prem система начинает отвечать точнее, стабильнее и с учётом накопленного контекста. Есть и второй практический эффект — объяснимость. В классическом LLM-стеке объяснение часто сводится к красивому тексту или ссылке на источник.

Онтология даёт более проверяемую механику: можно показать, через какие сущности и связи система пришла к выводу. Для корпоративных сценариев это критично не меньше точности. Такой слой постепенно начинает играть роль операционной системы знаний: через него можно связывать документы, таблицы, изображения, события и даже сенсорные данные в одну рабочую картину.

Что это значит

Главный вывод статьи простой: следующий шаг для прикладного ИИ — не только улучшать поиск по документам, но и менять единицу знания. Переход от фрагмента текста к факту, от архива к модели мира и от контекста к памяти делает агентов, ассистентов и роботов заметно полезнее. Для рынка это сигнал, что гибридные архитектуры с LLM и онтологическим слоем выглядят всё менее академической идеей и всё больше — рабочим инженерным направлением.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…