Habr AI→ оригинал

OpenClaw recibe una reimplementación en Go: un único binario de 35 MB en lugar de 800 MB de dependencias

Se creó una versión autónoma de OpenClaw en Go llamada GoClaw. En lugar de una stack de Node.js y cientos de megabytes de dependencias, el proyecto se ejecuta c

OpenClaw recibe una reimplementación en Go: un único binario de 35 MB en lugar de 800 MB de dependencias
Источник: Habr AI. Коллаж: Hamidun News.
◐ Слушать статью

OpenClaw, набравший около 180 тысяч звёзд на GitHub, получил независимую реимплементацию на Go. Новый проект под названием GoClaw обещает убрать главные боли Node.js-версии: тяжёлые зависимости, лишний рантайм и сложный деплой на слабые серверы.

Зачем нужен GoClaw Главная претензия к OpenClaw связана не с возможностями, а с упаковкой.

Чтобы поднять исходный проект, нужен Node.js, npm, сам репозиторий и установка большого набора зависимостей, который может разрастаться до 500–800 МБ. На практике это означает долгий первый запуск, конфликты версий, проблемы с нативными модулями и больше точек отказа, если сервис нужно быстро развернуть на VPS, мини-ПК или Raspberry Pi. GoClaw решает эту проблему максимально прямолинейно: вместо экосистемы из рантайма и node_modules пользователь получает один статически собранный бинарник размером около 35 МБ. Его можно просто скачать, дать права на запуск и сразу использовать. Для инструментов, которые должны висеть в фоне 24/7 и ждать сообщения из Telegram, Discord или других каналов, такой формат заметно снижает порог входа и упрощает поддержку.

Как устроен проект

Важно, что GoClaw — это не форк и не тонкая обёртка над оригиналом, а переписанная с нуля версия мультиагентного AI-шлюза. Проект подключается к мессенджерам, умеет работать с несколькими LLM-провайдерами и делает ставку на встроенную конкурентность Go. В статье это подаётся как более естественная база для агентных сценариев, где много параллельных запросов, ожидания ответов от API и координации между ролями.

  • Один бинарник размером около 35 МБ Поддержка 11+ LLM-провайдеров Работа через 5 каналов связи, включая Telegram и Discord Мультиагентная система с делегированием и оркестрацией Канбан-доска для управления задачами агентов Сама архитектура строится вокруг нескольких специализированных агентов. Один отвечает за проектирование решения, другой пишет код, третий проверяет тесты, четвёртый занимается ревью. Высокоуровневая задача декомпозируется автоматически, после чего этапы раскладываются по внутренней канбан-доске. Для Go такой сценарий выглядит органично: горутины и каналы позволяют держать множество параллельных цепочек без лишней сложности, тогда как в Node.js всё это обычно завязано на event loop и промисы.

Где выигрыш и ограничения На стороне GoClaw — не только компактность, но и экономика запуска.

В материале говорится о снижении потребления памяти в 3–5 раз по сравнению с Node.js-версией при сопоставимой функциональности. Это особенно важно для дешёвых VPS с 512 МБ или 1 ГБ RAM, где каждый постоянно работающий процесс быстро съедает ресурсы.

Плюс выигрывает контейнеризация: образ с Go-приложением можно собрать почти из одного бинарника, тогда как Node.js-сервис обычно тянет за собой более тяжёлую базу и весь каталог зависимостей. Но у такого перехода есть и цена.

OpenClaw силён не только кодом, а зрелой экосистемой: у него большое сообщество, 180K+ звёзд, наработанные плагины, Skills и интеграции. GoClaw пока молод, у него меньше пользователей и меньше продакшен-проверки. Совместимости между экосистемами почти нет: существующие Skills из OpenClaw нельзя просто взять и перенести.

Поэтому выбор зависит от задачи: если нужен минималистичный сервис для фоновой работы, Go-версия выглядит логично; если важны плагины, кастомизация и сообщество, оригинал пока заметно сильнее.

Что это значит

История с GoClaw показывает более широкий тренд: AI-инструменты всё чаще оценивают не только по качеству моделей, но и по стоимости эксплуатации. Если агент должен стабильно работать в фоне, быстро деплоиться и не требовать сотен мегабайт зависимостей, Go становится всё более практичным выбором. Но победа языка здесь не абсолютная: экосистема и зрелость продукта по-прежнему могут перевесить чистую инженерную эффективность.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…