Convirtieron Codex en un asistente personal con memoria en Markdown, Git y Telegram
En Habr AI mostraron cómo convertir un coding agent común en un 'Jarvis' personal sin una pila RAG pesada. El autor construyó para Codex una capa de memoria sob

На Habr AI вышел подробный кейс о том, как Codex превратили из coding agent в персонального ассистента с долговременной памятью. Вместо векторных баз и сложного RAG автор собрал управляемую систему на Markdown, Git, ролях, автоматизациях и внешних источниках вроде Telegram и Anki.
Почему не RAG
Автор начинает с простой проблемы: обычный AI-чат неплохо отвечает в моменте, но почти не умеет жить во времени. Новый диалог каждый раз теряет часть контекста, плохо различает устойчивые факты, временные заметки и гипотезы, а персонализация остается запертой внутри конкретного треда. Для личного ассистента этого мало, потому что ему нужно не только реагировать на вопрос, но и помнить привычки, цели, историю решений и повторяющиеся сценарии.
Вместо типичного стека с embeddings, vector DB и GraphRAG он выбрал более прозрачный вариант: иерархию Markdown-файлов в Git. Такой подход, по его словам, лучше работает на небольшом и среднем корпусе знаний, который можно разложить по понятной структуре. Файлы человекочитаемы, легко версионируются, не прячут логику поиска за черным ящиком и заставляют думать не только о retrieval, но и о дисциплине хранения.
Главная идея статьи звучит так: в персональной памяти важнее архитектура и правила, чем очередная модная технология.
Как устроен
Jarvis В основе Jarvis лежит репозиторий, разбитый на несколько слоев: profile для стабильной информации о пользователе, areas для основных сфер жизни, events для хронологии, preferences для ограничений и паттернов, roles для режимов ответа, skills для локальных процедур, assets для внешних источников и inbox для сырого материала. Смысл не в самих папках, а в том, что агенту задают жесткое поведение: сначала искать релевантный контекст, потом отвечать, а при необходимости еще и обновлять память без засорения всей системы. Практическая ценность проявляется в конкретных сценариях, которые автор уже связал с Codex: роль преподавателя английского, которая опирается на историю занятий и умеет работать с AnkiConnect ежедневный разбор скидок в магазинах и сборка бюджетного рациона под mass gain еженедельная пересборка спортивного плана под текущую нагрузку и восстановление короткие сводки по задачам, незавершенным решениям и личным итогам недели * подключение Telegram-архивов, где уже накопилось почти 300 тысяч сообщений и более 3 тысяч голосовых Отдельный акцент сделан на ролях и автоматизациях.
Один и тот же агент может выступать как контекстный помощник по жизни, аналитик, оператор рутинных процедур или wellness-ассистент. За счет этого ответы становятся не общими, а привязанными к реальным задачам пользователя. Telegram здесь нужен не как бесконечный склад сырых данных, а как источник для нормализации: сообщения индексируются по годам, голосовые расшифровываются, по диалогам обновляются карточки людей и общие синтезы.
Без такого слоя очистки память быстро превращается в свалку, а слишком широкие права на запись начинают плодить шум и дубли.
«Каждый сабагент — это как осьминог в отдельном аквариуме».
Что это значит
Статья хорошо показывает, куда сегодня смещается практический фокус вокруг AI-агентов. Для персональных ассистентов и рабочих Copilot-сценариев выиграет не тот, у кого просто сильнее модель, а тот, кто лучше спроектирует память, роли, границы доступа и стоимость поддержки. Если этот слой сделать прозрачным и дешевым в обслуживании, даже обычный coding agent может начать работать как действительно полезный цифровой помощник, особенно там, где критично помнить человека и не терять контекст между сессиями. Именно это делает подход практичным.