TechCrunch→ оригинал

Osaurus lançou um aplicativo para Mac em que modelos de AI locais e na nuvem trabalham juntos

A Osaurus lançou um aplicativo para macOS que reúne modelos de AI locais e na nuvem em uma única janela. Memória, arquivos e ferramentas ficam no dispositivo do

Osaurus lançou um aplicativo para Mac em que modelos de AI locais e na nuvem trabalham juntos
Fonte: TechCrunch. Коллаж: Hamidun News.
◐ Слушать статью

A Osaurus lançou um aplicativo para macOS que combina modelos de IA locais e em nuvem em uma única interface. A ideia principal do serviço é que a memória do agente, arquivos, chaves e ferramentas permaneçam no próprio Mac, e o usuário se conecta aos modelos externos apenas quando realmente necessário.

Como Osaurus Funciona

Osaurus se posiciona não como mais um chat com um modelo, mas como um "harness" — uma camada de gerenciamento sobre diferentes modelos de IA. Os usuários podem executar modelos locais diretamente no Apple Silicon, e se precisarem de geração mais potente ou de um provedor específico, podem alternar para serviços em nuvem como OpenAI, Anthropic, Gemini ou Grok. Ao mesmo tempo, uma parte importante do contexto não sai para um servidor externo: histórico, memória, plugins e ferramentas de trabalho são armazenados no dispositivo.

O projeto surgiu de uma ideia anterior de um companheiro de IA para desktop chamado Dinoki. Segundo o cofundador Terrence Pae, os usuários perguntavam por que deveriam comprar um aplicativo se mesmo assim tivessem de pagar separadamente pelos tokens dos modelos. Isso levou a equipe a um cenário local: se a IA vive no seu Mac, ela pode trabalhar com arquivos, configurações do sistema e navegador como um assistente pessoal, em vez de apenas outra janela de chat.

O Que o Aplicativo Pode Fazer

A aposta da Osaurus é em uma abordagem híbrida: modelos locais para privacidade e controle, modelos em nuvem para tarefas onde a máxima qualidade ou velocidade é necessária. O que importa aqui não é apenas a lista de modelos, mas o fato de que todo o cenário é montado em um único aplicativo nativo do macOS: sem terminal, configuração manual e serviços fragmentados. Como resultado, o produto tenta ocupar um nicho entre ferramentas orientadas para desenvolvedores como o Ollama e produtos de IA mais convencionais focados em uma interface amigável.

  • Alternar entre modelos locais e em nuvem sem alterar o ambiente de trabalho
  • Armazenar memória, histórico de chat e chaves no próprio Mac
  • Suporte para clientes MCP e acesso a ferramentas através de um servidor unificado
  • Mais de 20 plugins incorporados para email, calendário, navegador, Git, arquivos e formatos de escritório
  • Modo de voz e ambiente de sandbox isolado para executar código

De acordo com a empresa, Osaurus já oferece suporte a MiniMax, Gemma 4, Qwen 3.6, Llama, DeepSeek V4, Apple Foundation Models e a família Liquid AI LFM, e na nuvem pode se conectar a OpenAI, Anthropic, Gemini, xAI, OpenRouter, LM Studio e outros provedores. O projeto, lançado há cerca de um ano, já superou a marca de 112 mil downloads. Outro detalhe importante: o aplicativo funciona como um servidor MCP completo, então pode ser incorporado em um stack mais amplo de ferramentas de IA, em vez de ser usado apenas como um cliente desktop autônomo.

Onde Estão os Gargalos

A principal limitação é, francamente, hardware. Para executar modelos localmente, Osaurus recomenda um sistema com no mínimo 64 GB de RAM, e para modelos grandes como DeepSeek V4 — cerca de 128 GB. Em outras palavras, ainda não se trata de um MacBook Air básico para o usuário médio, mas de Mac Studio, MacBook Pro aprimorado e outras máquinas com memória suficiente. Além disso, a própria plataforma é voltada apenas para o ecossistema Apple.

O segundo problema é que a IA local ainda está em estágio inicial de desenvolvimento. Mas é justamente aqui que o fundador vê progresso rápido: um ano atrás, modelos locais tinham dificuldade em terminar frases, e agora já podem chamar ferramentas, escrever código e trabalhar com navegador. Osaurus está tentando empacotar esse salto em um produto para usuários comuns, adicionando um sandbox virtual para segurança e uma interface sem terminal.

Olhando para frente, a equipe também está observando cenários B2B — por exemplo, escritórios de advocacia e medicina, onde a implantação local poderia reduzir riscos de privacidade para dados sensíveis.

O Que Isso Significa

O mercado de IA está gradualmente mudando de uma corrida por modelos para competição por uma camada de gerenciamento sobre eles. Osaurus aposta que os usuários não precisam apenas de acesso ao Claude ou GPT, mas de um ambiente controlado onde possam combinar modelos locais e em nuvem sem perder memória, ferramentas e privacidade. Se essa abordagem pegar, o Mac pode se tornar não apenas um cliente para IA, mas a plataforma principal onde um agente pessoal realmente vive.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
O que você acha?
Carregando comentários…