Osaurus выпустила Mac-приложение, где локальные и облачные AI-модели работают вместе
Osaurus запустила для macOS приложение, которое объединяет локальные и облачные AI-модели в одном окне. Память, файлы и инструменты остаются на устройстве польз

Osaurus выпустила для macOS приложение, которое объединяет локальные и облачные AI-модели в одном интерфейсе. Главная идея сервиса в том, что память агента, файлы, ключи и инструменты остаются на самом Mac, а к внешним моделям пользователь подключается только тогда, когда это действительно нужно.
Как устроен
Osaurus Osaurus позиционирует себя не как очередной чат с моделью, а как «harness» — управляющий слой над разными AI-моделями. Пользователь может запускать локальные модели прямо на Apple Silicon, а если нужна более мощная генерация или конкретный провайдер, переключиться на облачные сервисы вроде OpenAI, Anthropic, Gemini или Grok. При этом важная часть контекста не уезжает на внешний сервер: история, память, плагины и рабочие инструменты хранятся на устройстве.
Проект вырос из более ранней идеи настольного AI-компаньона Dinoki. По словам сооснователя Терренса Пэя, пользователи спрашивали, зачем покупать приложение, если потом всё равно отдельно платить за токены моделей. Это подтолкнуло команду к локальному сценарию: если AI живёт на твоём Mac, он может работать с файлами, настройками системы и браузером как персональный ассистент, а не просто как ещё одно окно с чатом.
Что умеет приложение
Ставка Osaurus — на гибридный подход: локальные модели для приватности и контроля, облачные — для задач, где нужен максимум качества или скорости. Здесь важен не только список моделей, но и то, что весь сценарий собран в одном нативном приложении для macOS: без терминала, ручной конфигурации и разрозненных сервисов. В результате продукт пытается занять нишу между developer-first инструментами вроде Ollama и более массовыми AI-продуктами с упором на удобный интерфейс.
- Переключение между локальными и облачными моделями без смены рабочей среды Хранение памяти, истории чатов и ключей на самом Mac Поддержка MCP-клиентов и доступ к инструментам через единый сервер Более 20 встроенных плагинов для почты, календаря, браузера, Git, файлов и офисных форматов Голосовой режим и изолированная sandbox-среда для запуска кода По данным компании, Osaurus уже поддерживает MiniMax, Gemma 4, Qwen 3.6, Llama, DeepSeek V4, Apple Foundation Models и семейство Liquid AI LFM, а в облаке умеет подключаться к OpenAI, Anthropic, Gemini, xAI, OpenRouter, LM Studio и другим провайдерам. Проект, запущенный около года назад, уже превысил отметку в 112 тысяч загрузок. Ещё одна важная деталь: приложение работает как полноценный MCP-сервер, поэтому его можно встраивать в более широкий стек AI-инструментов, а не использовать только как отдельный десктопный клиент.
Где узкие места Главное ограничение пока банально железное.
Для локального запуска моделей Osaurus рекомендует систему минимум с 64 ГБ оперативной памяти, а для больших моделей уровня DeepSeek V4 — около 128 ГБ. То есть речь пока не про базовый MacBook Air для массового пользователя, а скорее про Mac Studio, прокачанные MacBook Pro и другие машины, где есть запас по памяти. Кроме того, сама платформа ориентирована только на экосистему Apple.
Вторая проблема — локальный AI всё ещё находится на ранней стадии развития. Но именно здесь основатель видит быстрый прогресс: ещё год назад локальные модели с трудом заканчивали предложения, а теперь уже могут вызывать инструменты, писать код и работать с браузером. Osaurus пытается упаковать этот скачок в продукт для обычного пользователя, добавив виртуальную песочницу для безопасности и интерфейс без терминала.
В перспективе команда смотрит и на B2B-сценарии — например, юрфирмы и медицину, где локальный запуск может снизить риски для приватных данных.
Что это значит
Рынок AI постепенно смещается от гонки моделей к борьбе за слой управления поверх них. Osaurus делает ставку на то, что пользователям нужен не просто доступ к Claude или GPT, а контролируемая среда, где можно сочетать локальные и облачные модели без потери памяти, инструментов и приватности. Если этот подход приживётся, Mac может стать не только клиентом для AI, но и основной площадкой, где персональный агент реально живёт.