MarkTechPost→ оригинал

Как Memori создаёт постоянную память для агентов и мультисессионных LLM

Memori — фреймворк для создания долгосрочной памяти LLM-агентов. Позволяет приложениям помнить контекст между сессиями и работать с несколькими пользователями о

Как Memori создаёт постоянную память для агентов и мультисессионных LLM
Источник: MarkTechPost. Коллаж: Hamidun News.
◐ Слушать статью

Memori — фреймворк для создания агент-нативной памяти в LLM-приложениях. Он решает проблему, которая была в языковых моделях с первого дня: они не помнят ничего вне текущего диалога. Memori создаёт слой памяти между приложением и моделью, позволяя агентам запомнить историю, контекст и предпочтения пользователя.

Почему обычных LLM недостаточно

Обычные LLM-приложения работают в текущей сессии: каждый новый запрос — чистый лист истории. Пользователь может повторить себя десять раз, и модель каждый раз будет думать, что это новая информация. Для чатботов, персональных ассистентов и корпоративных систем это критическая проблема. Memori меняет это, создавая постоянный слой памяти. Теперь агент может запомнить не только текущий диалог, но и все прошлые взаимодействия, выученные факты о пользователе, его предпочтения.

Как работает Memori Memori действует как прокси между приложением и OpenAI API.

Вы оборачиваете стандартный OpenAI клиент в Memori, и каждый вызов модели проходит через слой памяти. Фреймворк может работать как с синхронными, так и с асинхронными клиентами — важно для production-систем, которые обрабатывают множество запросов. Интеграция в Google Colab требует всего три шага: Установить Memori из PyPI Инициализировать Memori клиент с параметрами хранилища * Заменить обычный OpenAI клиент на Memori-обёрнутый вариант Больше нечего менять в вашем коде — остальное происходит автоматически.

Мультипользовательские агенты

Memori поддерживает сценарии, где один агент работает с множеством пользователей одновременно. Каждый пользователь получает отдельную память, отдельный контекст. Это критично для продакшена: персональные ассистенты должны помнить историю конкретного юзера, B2B чатботы должны различать клиентов, корпоративные системы поддержки должны вести отдельные дела для каждого.

«Долгосрочная память — это не фича, это основа для продакшена», — говорят авторы

Memori.

Что это значит LLM-приложения перестают быть stateless.

Это значит революцию для пользовательского опыта: боты станут более полезными, будут учиться на ваших привычках, помнить решения, которые вы уже приняли. Не придётся повторяться. Для разработчиков Memori экономит месяцы работы — не нужно писать собственную систему памяти, интеграцию с хранилищем, механизм забывания и актуализации контекста.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Что вы думаете?
Загружаем комментарии…