Когнитивная память для ИИ-агента: как SQLite заменил векторные базы данных
Разработчик представил открытую архитектуру когнитивной памяти для локальных ИИ-агентов, построенную поверх одного файла SQLite. Вместо стандартного подхода с в

Одна из главных нерешённых проблем современных ИИ-агентов звучит обманчиво просто: как научить их помнить то, что важно, и забывать то, что устарело. Разработчик, опубликовавший подробный технический разбор на Хабре, предложил решение, которое идёт вразрез с мейнстримом индустрии. Вместо популярных векторных баз данных он построил полноценную когнитивную память поверх единственного файла SQLite.
Проблема, которую он описывает, знакома каждому, кто пытался создать долгоживущего ИИ-агента. Стандартный рецепт выглядит так: берёшь текст, нарезаешь на чанки, превращаешь в векторные эмбеддинги, складываешь в Pinecone или Chroma, а при запросе достаёшь ближайшие по косинусному расстоянию. На коротких дистанциях это работает. Но стоит агенту пожить подольше, и начинается хаос: контекстное окно замусоривается нерелевантными фрагментами, противоречивые факты из разных периодов сосуществуют как ни в чём не бывало, а механизма забывания попросту нет. Агент помнит всё одинаково хорошо, что на практике означает, что он помнит всё одинаково плохо.
Предложенная архитектура заимствует принципы из когнитивной психологии и нейронауки. Память организована как граф с двумя типами узлов: эпизодическими, которые хранят конкретные события и взаимодействия, и семантическими, содержащими обобщённые знания и факты. Между узлами проложены типизированные рёбра, отражающие характер связей. Отдельным слоем выделены именованные сущности, что позволяет агенту отслеживать упоминания конкретных людей, организаций, концепций и связывать разрозненные фрагменты информации в единую картину.
Особого внимания заслуживает система поиска. Вместо того чтобы полагаться на единственный метод извлечения информации, разработчик реализовал гибридный подход, объединяющий три механизма: полнотекстовый поиск через SQLite FTS5 для точных совпадений и ключевых слов, векторный поиск для семантической близости и графовый обход для извлечения связанных контекстов. Результаты трёх поисковых стратегий объединяются с помощью Reciprocal Rank Fusion, алгоритма, который комбинирует ранжированные списки из разных источников без необходимости калибровать их абсолютные оценки. Это элегантное решение, позволяющее каждому методу компенсировать слабости остальных.
Но самая интересная часть архитектуры связана не с запоминанием, а с забыванием. Разработчик внедрил кривую забывания Эббингауза, классическую модель из экспериментальной психологии XIX века, которая описывает экспоненциальное угасание памяти со временем. Каждый узел графа имеет показатель «силы памяти», который постепенно снижается. Информация, к которой обращаются повторно, укрепляется, а редко востребованные фрагменты естественным образом уходят на задний план. Это принципиально отличается от подхода большинства систем, где данные либо есть, либо их нет.
Дополняет картину механизм фоновой LLM-консолидации. По аналогии с тем, как человеческий мозг обрабатывает и обобщает информацию во время сна, агент периодически запускает языковую модель для анализа накопленных эпизодических воспоминаний. Модель выявляет паттерны, разрешает противоречия и создаёт новые семантические узлы, превращая разрозненные эпизоды в структурированное знание. Фактически это автоматическая генерация «мудрости из опыта».
Важно подчеркнуть инженерную прагматичность решения. Вся система работает на одном файле SQLite, без внешних сервисов, без Docker-контейнеров с векторными базами, без подписок на облачные хранилища. Для локально работающего агента это означает минимальные зависимости, простоту развёртывания и полный контроль над данными. SQLite, несмотря на свою репутацию «базы данных для маленьких проектов», уже давно доказал способность справляться с серьёзными нагрузками, а расширение FTS5 превращает его в полноценный поисковый движок.
Этот проект вписывается в растущий тренд на создание более «человечной» памяти для ИИ-агентов. Крупные лаборатории вроде Google DeepMind и OpenAI активно исследуют механизмы долгосрочной памяти, но их решения, как правило, привязаны к проприетарным платформам. Открытая архитектура, которую можно развернуть локально на любой машине, демократизирует доступ к этим возможностям. Если подход окажется жизнеспособным при масштабировании, он может изменить представление о том, как должна быть устроена память автономных агентов, от бездумного накопления данных к осмысленному управлению знаниями.