MarkTechPost→ original

Comment Memori crée une mémoire persistante pour les agents et les LLM multi-session

Memori est un framework pour créer une mémoire à long terme pour les agents LLM. Il permet aux applications de conserver le contexte entre les sessions et de tr

Comment Memori crée une mémoire persistante pour les agents et les LLM multi-session
Source : MarkTechPost. Collage: Hamidun News.
◐ Écouter l'article

Memori est un framework pour créer une mémoire native d'agent dans les applications LLM. Il résout un problème qui existe dans les modèles de langage depuis le premier jour : ils ne se souviennent de rien en dehors de la conversation actuelle. Memori crée une couche de mémoire entre l'application et le modèle, permettant aux agents de mémoriser l'historique de l'utilisateur, le contexte et les préférences.

Pourquoi les LLMs Standard Ne Suffisent Pas

Les applications LLM standard fonctionnent dans la session actuelle : chaque nouvelle demande est une page blanche d'historique. Un utilisateur peut se répéter dix fois, et le modèle pensera à chaque fois que c'est une nouvelle information. Pour les chatbots, les assistants personnels et les systèmes d'entreprise, c'est un problème critique. Memori change cela en créant une couche de mémoire persistante. Maintenant, un agent peut se souvenir non seulement de la conversation actuelle, mais de toutes les interactions passées, des faits appris sur l'utilisateur, ses préférences.

Comment Fonctionne Memori

Memori agit comme un proxy entre l'application et l'OpenAI API. Vous enveloppez un client OpenAI standard dans Memori, et chaque appel de modèle passe à travers la couche de mémoire. Le framework fonctionne avec des clients synchrones et asynchrones — important pour les systèmes de production qui traitent plusieurs demandes. L'intégration dans Google Colab ne nécessite que trois étapes :

  • Installer Memori depuis PyPI
  • Initialiser le client Memori avec les paramètres de stockage
  • Remplacer le client OpenAI standard par la version enveloppée dans Memori

Rien d'autre n'a besoin de changer dans votre code — tout le reste se fait automatiquement.

Agents Multi-Utilisateurs

Memori supporte les scénarios où un agent unique travaille avec de nombreux utilisateurs simultanément. Chaque utilisateur obtient une mémoire séparée, un contexte séparé. C'est critique pour la production : les assistants personnels doivent mémoriser l'historique d'un utilisateur spécifique, les chatbots B2B doivent distinguer les clients, les systèmes de support d'entreprise doivent maintenir des dossiers séparés pour chacun.

«

La mémoire à long terme n'est pas une fonctionnalité, c'est la base de la production », disent les auteurs de Memori.

Ce Que Cela Signifie

Les applications LLM cessent d'être sans état. Cela signale une révolution pour l'expérience utilisateur : les bots deviendront plus utiles, apprendront de vos habitudes, se souviendront des décisions que vous avez déjà prises. Vous n'aurez pas besoin de vous répéter. Pour les développeurs, Memori économise des mois de travail — pas besoin d'écrire votre propre système de mémoire, intégration de stockage, mécanisme d'oubli et logique de rafraîchissement du contexte.

ZK
Hamidun News
Actualités IA sans bruit. Sélection éditoriale quotidienne de plus de 400 sources. Produit de Zhemal Khamidun, Head of AI chez Alpina Digital.
Qu'en pensez-vous ?
Chargement des commentaires…