BerriAI выпустила LiteLLM Agent Platform для агентов в production
BerriAI выпустила LiteLLM Agent Platform — self-hosted решение на Kubernetes для AI-агентов в production. Платформа обеспечивает изолированные песочницы для каж

Exécuter un agent IA dans un script local est simple. L'exécuter de manière fiable en production, synchroniser entre les redémarrages, fournir des environnements isolés pour différents contextes—c'est une affaire complètement différente.
Problèmes en Production
Quand un agent IA ne fonctionne que sur la machine du développeur, tout semble direct. Mais en passant à la production, les problèmes surgissent immédiatement : pas de persistance de session entre les redémarrages du SE, pas d'isolation de contexte pour différents utilisateurs, gestion difficile en équipes, pas de monitoring intégré. Chaque entreprise qui a tenté d'exécuter un agent en production a commencé à construire sa propre infrastructure. BerriAI, la société derrière le populaire LiteLLM AI Gateway, a lancé une solution à ce problème : LiteLLM Agent Platform. C'est une couche d'infrastructure basée sur Kubernetes, auto-hébergée, qui automatise tout ce qui est nécessaire.
Ce que Comprend LiteLLM Agent Platform
La plateforme fournit des composants clés pour les agents prêts pour la production :
- Bacs à sable isolés pour chaque agent ou contexte
- Gestion persistante de session—préservation d'état entre les redémarrages
- Gestion d'équipe et contrôle d'accès
- Monitoring, logging et tracing intégrés
- Déploiement auto-hébergé sur Kubernetes
- API pour gérer le cycle de vie de l'agent
Vous définissez la spécification de l'agent, la plateforme crée un environnement pour celui-ci et gère tout le reste.
Différence avec LiteLLM Gateway
Il est important de ne pas confondre LiteLLM Agent Platform avec LiteLLM AI Gateway (du même auteur). Gateway concerne la gestion des requêtes à différents modèles LLM (OpenAI, Anthropic, Cohere, locaux). Il résout les problèmes de routage et de mise en cache des requêtes. Agent Platform est le niveau suivant : infrastructure pour le cycle de vie complet de l'agent. Gateway peut faire partie de la stack, mais Platform assume toute la complexité de l'environnement.
Ce que Cela Signifie
Pratiquement, cela élimine toute une classe de problèmes pour les équipes qui souhaitent exécuter des agents IA en production. Pas besoin d'écrire votre propre persistance de session, isolation de contexte, monitoring. Être du code open-source permet aux entreprises d'intégrer la plateforme dans leur stack sans vendor lock-in. Cela devrait accélérer la transition des agents de POC à la production.