Osaurus a lancé une application Mac où les modèles d'AI locaux et dans le cloud fonctionnent ensemble
Osaurus a lancé une application macOS qui réunit des modèles d'AI locaux et dans le cloud dans une seule fenêtre. La mémoire, les fichiers et les outils restent

Osaurus a lancé une application macOS qui combine des modèles d'IA locaux et en nuage dans une seule interface. L'idée principale du service est que la mémoire de l'agent, les fichiers, les clés et les outils restent sur le Mac lui-même, et l'utilisateur ne se connecte aux modèles externes que lorsque c'est vraiment nécessaire.
Comment Fonctionne Osaurus
Osaurus se positionne non pas comme un autre chat avec un modèle, mais comme un « harness » — une couche de gestion sur différents modèles d'IA. Les utilisateurs peuvent exécuter des modèles locaux directement sur Apple Silicon, et s'ils ont besoin d'une génération plus puissante ou d'un fournisseur spécifique, ils peuvent basculer vers des services en nuage comme OpenAI, Anthropic, Gemini ou Grok. Dans le même temps, une part importante du contexte ne part pas vers un serveur externe : l'historique, la mémoire, les plugins et les outils de travail sont stockés sur l'appareil.
Le projet est issu d'une idée antérieure pour un compagnon d'IA de bureau appelé Dinoki. Selon le cofondateur Terrence Pae, les utilisateurs se demandaient pourquoi acheter une application s'ils devaient quand même payer séparément pour les jetons de modèles. Cela a poussé l'équipe vers un scénario local : si l'IA vit sur votre Mac, elle peut fonctionner avec les fichiers, les paramètres du système et le navigateur comme un assistant personnel, plutôt que simplement une autre fenêtre de chat.
Ce Que L'Application Peut Faire
La stratégie d'Osaurus mise sur une approche hybride : des modèles locaux pour la confidentialité et le contrôle, des modèles en nuage pour les tâches nécessitant une qualité ou une vitesse maximales. Ce qui compte ici, ce n'est pas seulement la liste des modèles, mais le fait que tout le scénario est assemblé dans une seule application native macOS : sans terminal, configuration manuelle ni services fragmentés. En conséquence, le produit tente d'occuper une niche entre les outils orientés développeurs comme Ollama et les produits d'IA plus grand public axés sur une interface conviviale.
- Basculer entre les modèles locaux et en nuage sans changer l'environnement de travail
- Stocker la mémoire, l'historique des chats et les clés sur le Mac lui-même
- Support des clients MCP et accès aux outils via un serveur unifié
- Plus de 20 plugins intégrés pour la messagerie, le calendrier, le navigateur, Git, les fichiers et les formats de bureau
- Mode vocal et environnement de sandbox isolé pour exécuter du code
Selon l'entreprise, Osaurus supporte déjà MiniMax, Gemma 4, Qwen 3.6, Llama, DeepSeek V4, Apple Foundation Models et la famille Liquid AI LFM, et dans le nuage peut se connecter à OpenAI, Anthropic, Gemini, xAI, OpenRouter, LM Studio et d'autres fournisseurs. Le projet, lancé il y a environ un an, a déjà dépassé la barre des 112 000 téléchargements. Un autre détail important : l'application fonctionne comme un véritable serveur MCP, elle peut donc être intégrée dans un stack plus large d'outils d'IA, plutôt que d'être utilisée uniquement comme un client de bureau autonome.
Où Sont Les Goulots D'Étranglement
La principale limitation est, franchement, le matériel. Pour exécuter les modèles localement, Osaurus recommande un système avec au minimum 64 GB de RAM, et pour les grands modèles comme DeepSeek V4 — environ 128 GB. En d'autres termes, il ne s'agit pas encore d'un MacBook Air basique pour l'utilisateur moyen, mais plutôt de Mac Studio, de MacBook Pro améliorés et d'autres machines avec suffisamment de mémoire. De plus, la plateforme elle-même est orientée uniquement vers l'écosystème Apple.
Le deuxième problème est que l'IA locale en est encore à un stade précoce de développement. Mais c'est précisément ici que le fondateur voit des progrès rapides : il y a un an, les modèles locaux avaient du mal à terminer les phrases, et maintenant ils peuvent déjà appeler des outils, écrire du code et travailler avec un navigateur. Osaurus essaie d'empaqueter ce bond dans un produit pour les utilisateurs ordinaires, en ajoutant un sandbox virtuel pour la sécurité et une interface sans terminal.
À l'avenir, l'équipe envisage également des scénarios B2B — par exemple, les cabinets juridiques et la médecine, où le déploiement local pourrait réduire les risques de confidentialité pour les données sensibles.
Ce Que Cela Signifie
Le marché de l'IA se déplace progressivement d'une course aux modèles vers une compétition pour une couche de gestion sur ceux-ci. Osaurus parie que les utilisateurs ne veulent pas seulement accéder à Claude ou GPT, mais un environnement contrôlé où ils peuvent combiner des modèles locaux et en nuage sans perdre la mémoire, les outils et la confidentialité. Si cette approche s'avère viable, Mac pourrait devenir non seulement un client pour l'IA, mais la plateforme principale où un agent personnel vit vraiment.