TechCrunch→ оригинал

Osaurus lanzó una aplicación para Mac donde los modelos de AI locales y en la nube funcionan juntos

Osaurus lanzó una aplicación para macOS que reúne modelos de AI locales y en la nube en una sola ventana. La memoria, los archivos y las herramientas permanecen

Osaurus lanzó una aplicación para Mac donde los modelos de AI locales y en la nube funcionan juntos
Fuente: TechCrunch. Коллаж: Hamidun News.
◐ Слушать статью

Osaurus ha lanzado una aplicación para macOS que combina modelos de IA locales y en la nube en una única interfaz. La idea principal del servicio es que la memoria del agente, los archivos, las claves y las herramientas permanezcan en el propio Mac, y el usuario se conecte a modelos externos solo cuando es realmente necesario.

Cómo Funciona Osaurus

Osaurus se posiciona no como otro chat con un modelo, sino como un "harness" — una capa de gestión sobre diferentes modelos de IA. Los usuarios pueden ejecutar modelos locales directamente en Apple Silicon, y si necesitan una generación más potente o un proveedor específico, pueden cambiar a servicios en la nube como OpenAI, Anthropic, Gemini o Grok. Al mismo tiempo, una parte importante del contexto no sale hacia un servidor externo: el histórico, la memoria, los plugins y las herramientas de trabajo se almacenan en el dispositivo.

El proyecto surgió de una idea anterior para un compañero de IA de escritorio llamado Dinoki. Según el cofundador Terrence Pae, los usuarios preguntaban por qué deberían comprar una aplicación si de todas formas tenían que pagar por separado los tokens de los modelos. Esto llevó al equipo hacia un escenario local: si la IA vive en tu Mac, puede trabajar con archivos, configuraciones del sistema y navegador como un asistente personal, en lugar de ser solo otra ventana de chat.

Qué Puede Hacer la Aplicación

La apuesta de Osaurus es por un enfoque híbrido: modelos locales para privacidad y control, modelos en la nube para tareas donde se necesita la máxima calidad o velocidad. Lo que importa aquí no es solo la lista de modelos, sino el hecho de que todo el escenario está ensamblado en una única aplicación nativa de macOS: sin terminal, configuración manual ni servicios fragmentados. Como resultado, el producto intenta ocupar un nicho entre herramientas orientadas a desarrolladores como Ollama y productos de IA más convencionales enfocados en una interfaz amigable.

  • Cambiar entre modelos locales y en la nube sin cambiar el entorno de trabajo
  • Almacenar la memoria, el histórico de chats y las claves en el propio Mac
  • Compatibilidad con clientes MCP y acceso a herramientas a través de un servidor unificado
  • Más de 20 plugins integrados para correo electrónico, calendario, navegador, Git, archivos y formatos de oficina
  • Modo de voz y entorno sandbox aislado para ejecutar código

Según la empresa, Osaurus ya soporta MiniMax, Gemma 4, Qwen 3.6, Llama, DeepSeek V4, Apple Foundation Models y la familia Liquid AI LFM, y en la nube puede conectarse a OpenAI, Anthropic, Gemini, xAI, OpenRouter, LM Studio y otros proveedores. El proyecto, lanzado hace aproximadamente un año, ya ha superado la marca de 112 mil descargas. Otro detalle importante: la aplicación funciona como un servidor MCP completo, por lo que puede integrarse en un stack más amplio de herramientas de IA, en lugar de usarse solo como un cliente de escritorio autónomo.

Dónde Están los Cuellos de Botella

La principal limitación es, francamente, el hardware. Para ejecutar modelos localmente, Osaurus recomienda un sistema con un mínimo de 64 GB de RAM, y para modelos grandes como DeepSeek V4 — alrededor de 128 GB. En otras palabras, aún no se trata de un MacBook Air básico para el usuario promedio, sino de Mac Studio, MacBook Pro mejorados y otras máquinas con suficiente memoria. Además, la propia plataforma está orientada únicamente al ecosistema Apple.

El segundo problema es que la IA local aún se encuentra en una etapa temprana de desarrollo. Pero es precisamente aquí donde el fundador ve un progreso rápido: hace un año, los modelos locales tenían dificultades para terminar frases, y ahora ya pueden invocar herramientas, escribir código y trabajar con navegadores. Osaurus está intentando empaquetar este salto en un producto para usuarios comunes, agregando una sandbox virtual para seguridad e una interfaz sin terminal.

Mirando hacia el futuro, el equipo también está considerando escenarios B2B — por ejemplo, despachos legales y medicina, donde la ejecución local podría reducir los riesgos de privacidad para datos sensibles.

Qué Significa Esto

El mercado de IA se está desplazando gradualmente de una carrera por modelos a una competencia por una capa de gestión sobre ellos. Osaurus apuesta a que los usuarios no solo necesitan acceso a Claude o GPT, sino un entorno controlado donde puedan combinar modelos locales y en la nube sin perder memoria, herramientas y privacidad. Si este enfoque prospera, Mac podría convertirse no solo en un cliente para IA, sino en la plataforma principal donde realmente vive un agente personal.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
¿Qué te parece?
Cargando comentarios…