Habr AI→ оригинал

Transformaram o Codex em um assistente pessoal com memória em Markdown, Git e Telegram

Na Habr AI, mostraram como transformar um coding agent comum em um 'Jarvis' pessoal sem uma pilha RAG pesada. O autor construiu para o Codex uma camada de memór

Transformaram o Codex em um assistente pessoal com memória em Markdown, Git e Telegram
Источник: Habr AI. Коллаж: Hamidun News.
◐ Слушать статью

На Habr AI вышел подробный кейс о том, как Codex превратили из coding agent в персонального ассистента с долговременной памятью. Вместо векторных баз и сложного RAG автор собрал управляемую систему на Markdown, Git, ролях, автоматизациях и внешних источниках вроде Telegram и Anki.

Почему не RAG

Автор начинает с простой проблемы: обычный AI-чат неплохо отвечает в моменте, но почти не умеет жить во времени. Новый диалог каждый раз теряет часть контекста, плохо различает устойчивые факты, временные заметки и гипотезы, а персонализация остается запертой внутри конкретного треда. Для личного ассистента этого мало, потому что ему нужно не только реагировать на вопрос, но и помнить привычки, цели, историю решений и повторяющиеся сценарии.

Вместо типичного стека с embeddings, vector DB и GraphRAG он выбрал более прозрачный вариант: иерархию Markdown-файлов в Git. Такой подход, по его словам, лучше работает на небольшом и среднем корпусе знаний, который можно разложить по понятной структуре. Файлы человекочитаемы, легко версионируются, не прячут логику поиска за черным ящиком и заставляют думать не только о retrieval, но и о дисциплине хранения.

Главная идея статьи звучит так: в персональной памяти важнее архитектура и правила, чем очередная модная технология.

Как устроен

Jarvis В основе Jarvis лежит репозиторий, разбитый на несколько слоев: profile для стабильной информации о пользователе, areas для основных сфер жизни, events для хронологии, preferences для ограничений и паттернов, roles для режимов ответа, skills для локальных процедур, assets для внешних источников и inbox для сырого материала. Смысл не в самих папках, а в том, что агенту задают жесткое поведение: сначала искать релевантный контекст, потом отвечать, а при необходимости еще и обновлять память без засорения всей системы. Практическая ценность проявляется в конкретных сценариях, которые автор уже связал с Codex: роль преподавателя английского, которая опирается на историю занятий и умеет работать с AnkiConnect ежедневный разбор скидок в магазинах и сборка бюджетного рациона под mass gain еженедельная пересборка спортивного плана под текущую нагрузку и восстановление короткие сводки по задачам, незавершенным решениям и личным итогам недели * подключение Telegram-архивов, где уже накопилось почти 300 тысяч сообщений и более 3 тысяч голосовых Отдельный акцент сделан на ролях и автоматизациях.

Один и тот же агент может выступать как контекстный помощник по жизни, аналитик, оператор рутинных процедур или wellness-ассистент. За счет этого ответы становятся не общими, а привязанными к реальным задачам пользователя. Telegram здесь нужен не как бесконечный склад сырых данных, а как источник для нормализации: сообщения индексируются по годам, голосовые расшифровываются, по диалогам обновляются карточки людей и общие синтезы.

Без такого слоя очистки память быстро превращается в свалку, а слишком широкие права на запись начинают плодить шум и дубли.

«Каждый сабагент — это как осьминог в отдельном аквариуме».

Что это значит

Статья хорошо показывает, куда сегодня смещается практический фокус вокруг AI-агентов. Для персональных ассистентов и рабочих Copilot-сценариев выиграет не тот, у кого просто сильнее модель, а тот, кто лучше спроектирует память, роли, границы доступа и стоимость поддержки. Если этот слой сделать прозрачным и дешевым в обслуживании, даже обычный coding agent может начать работать как действительно полезный цифровой помощник, особенно там, где критично помнить человека и не терять контекст между сессиями. Именно это делает подход практичным.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…