Comment Memori crée une mémoire persistante pour les agents et les LLM multi-session
Memori est un framework pour créer une mémoire à long terme pour les agents LLM. Il permet aux applications de conserver le contexte entre les sessions et de tr

Memori est un framework pour créer une mémoire native d'agent dans les applications LLM. Il résout un problème qui existe dans les modèles de langage depuis le premier jour : ils ne se souviennent de rien en dehors de la conversation actuelle. Memori crée une couche de mémoire entre l'application et le modèle, permettant aux agents de mémoriser l'historique de l'utilisateur, le contexte et les préférences.
Pourquoi les LLMs Standard Ne Suffisent Pas
Les applications LLM standard fonctionnent dans la session actuelle : chaque nouvelle demande est une page blanche d'historique. Un utilisateur peut se répéter dix fois, et le modèle pensera à chaque fois que c'est une nouvelle information. Pour les chatbots, les assistants personnels et les systèmes d'entreprise, c'est un problème critique. Memori change cela en créant une couche de mémoire persistante. Maintenant, un agent peut se souvenir non seulement de la conversation actuelle, mais de toutes les interactions passées, des faits appris sur l'utilisateur, ses préférences.
Comment Fonctionne Memori
Memori agit comme un proxy entre l'application et l'OpenAI API. Vous enveloppez un client OpenAI standard dans Memori, et chaque appel de modèle passe à travers la couche de mémoire. Le framework fonctionne avec des clients synchrones et asynchrones — important pour les systèmes de production qui traitent plusieurs demandes. L'intégration dans Google Colab ne nécessite que trois étapes :
- Installer Memori depuis PyPI
- Initialiser le client Memori avec les paramètres de stockage
- Remplacer le client OpenAI standard par la version enveloppée dans Memori
Rien d'autre n'a besoin de changer dans votre code — tout le reste se fait automatiquement.
Agents Multi-Utilisateurs
Memori supporte les scénarios où un agent unique travaille avec de nombreux utilisateurs simultanément. Chaque utilisateur obtient une mémoire séparée, un contexte séparé. C'est critique pour la production : les assistants personnels doivent mémoriser l'historique d'un utilisateur spécifique, les chatbots B2B doivent distinguer les clients, les systèmes de support d'entreprise doivent maintenir des dossiers séparés pour chacun.
«
La mémoire à long terme n'est pas une fonctionnalité, c'est la base de la production », disent les auteurs de Memori.
Ce Que Cela Signifie
Les applications LLM cessent d'être sans état. Cela signale une révolution pour l'expérience utilisateur : les bots deviendront plus utiles, apprendront de vos habitudes, se souviendront des décisions que vous avez déjà prises. Vous n'aurez pas besoin de vous répéter. Pour les développeurs, Memori économise des mois de travail — pas besoin d'écrire votre propre système de mémoire, intégration de stockage, mécanisme d'oubli et logique de rafraîchissement du contexte.