تفوّق nullClaw المبني على Zig على OpenClaw في الذاكرة وزمن البدء في اختبارات محلية لوكلاء AI
أظهر NullClaw — وهو بيئة تشغيل للوكلاء على Zig ضمن ملف تنفيذي واحد — استهلاكًا أقل بكثير للذاكرة وبدءًا أسرع في مقارنة محلية مع OpenClaw. وفي اختبار الأمر --hel

NullClaw — агентный runtime на Zig в виде одного бинарника — показывает, что локальный AI-агент не обязан тянуть за собой тяжёлый стек. В сравнительных тестах с OpenClaw проект запускался быстрее и потреблял на порядок меньше памяти, особенно в параллельных задачах.
Зачем здесь
Zig Главная идея статьи не в том, чтобы объявить NullClaw абсолютным победителем среди всех агентных платформ. Автор сравнивает его с OpenClaw только в коротких локальных сценариях: служебные команды, один agent-run, небольшая coding-задача и пачка параллельных запусков. На этом фоне хорошо видно, насколько дорого сегодня обходится обычный AI-агент как процесс.
У большинства таких систем под капотом Node.js, Python, зависимости, фоновые сервисы и gateway-слой. NullClaw предлагает другой подход: максимально компактный runtime без лишней обвязки.
Отсюда и выбор Zig. Язык здесь нужен не ради моды, а ради инженерной прямоты: один бинарник, явный контроль памяти, отсутствие тяжёлого managed runtime и более понятная сборка. В build.
zig автор отдельно отмечает compile-time переключатели для каналов и memory engine’ов, то есть сборку можно сужать под конкретный сценарий. Это важно не только для скорости старта, но и для self-hosted и edge-развёртываний, где каждый лишний мегабайт и каждая зависимость быстро превращаются в практическую проблему.
Цифры без шума Замеры делались на Mac mini M4 с 16 ГБ RAM и macOS arm64.
Для обоих проектов использовалась одна и та же модель через OpenRouter, а метрики считались сериями запусков: отдельно для «свежих» процессов, отдельно для warm-сценариев, отдельно для coding-run и параллельных задач. Автор специально разделяет чистый runtime overhead и сетевую задержку до модели, потому что во втором случае даже очень лёгкий рантайм всё равно упирается во внешний round-trip. команда --help: NullClaw — 0,002 с и около 1,9 МБ RSS, OpenClaw — 0,621 с и около 308 МБ короткий agent-run: 2,55 с и примерно 7,7 МБ против 3,37 с и примерно 567 МБ маленький coding-run: 4,86 с и примерно 7,7 МБ против 6,64 с и примерно 572 МБ 10 параллельных coding-задач: 9,3 с и около 54 МБ суммарной RSS против 13,14 с и около 523 МБ Самая сильная разница видна именно в памяти.
По времени NullClaw чаще быстрее, но не всегда драматически, потому что часть сценариев ограничена ответом модели по сети. При этом в коротких и параллельных прогонах OpenClaw стабильно остаётся на уровне сотен мегабайт, а NullClaw — на уровне единиц или десятков. Для локального использования это означает более дешёвый мультиагентный запуск, более предсказуемую нагрузку и меньше трения при переносе между машинами.
Практический смысл сравнения В статье есть и более показательный пример, чем сухие таблицы: проект
ClawWatch для смарт-часов. Он использует NullClaw как статический ARM-бинарь вместе с офлайн-распознаванием речи Vosk и встроенным TTS, а часть запросов может обрабатывать без обращения к модели. Здесь компактность перестаёт быть просто приятной оптимизацией. Для устройства с жёстким лимитом памяти разница между несколькими мегабайтами и сотнями мегабайт определяет, можно ли вообще встроить агент в продукт, а не только запустить его на ноутбуке разработчика.
«На часах разница между “несколько мегабайт” и “сотни мегабайт” — вопрос “встраивается ли это вообще”».
Автор отдельно оговаривает, что магии с размером бинаря тут тоже нет. В README для ReleaseSmall заявлены 678 КБ, но опубликованные релизные артефакты заметно больше: около 3,9 МБ для macOS arm64 и 3,1 МБ для Linux arm64, а локальная сборка дала примерно 2,6 МБ. Но главный вывод не меняется: ценность NullClaw не в рекордной цифре из README, а в сочетании быстрого старта, малого RSS и узкой функциональной поверхности, которую проще контролировать и с точки зрения эксплуатации, и с точки зрения безопасности.
Что это значит
NullClaw возвращает разговор об AI-агентах к приземлённому вопросу: сколько должен стоить один запуск процесса. Если агентная инфраструктура пойдёт в сторону edge, self-hosted и массовых параллельных задач, выиграют те runtime’ы, которые экономят память, стартуют без паузы и не тащат за собой полсервера зависимостей.