ZDNet AI→ оригинал

Meta and OpenAI overpay for Moltbook and OpenClaw amid the agentic AI wave

Meta bought Moltbook, and OpenAI hired OpenClaw's creator — but both bets look overvalued. The main criticism is not the idea of agentic AI, but the execution:

Meta and OpenAI overpay for Moltbook and OpenClaw amid the agentic AI wave
Источник: ZDNet AI. Коллаж: Hamidun News.

Вокруг агентного AI снова большие сделки, но ZDNet предлагает смотреть не на шум, а на качество продуктов. По версии издания, Meta и OpenAI могли серьезно переплатить за Moltbook и OpenClaw: оба проекта стали вирусными раньше, чем доказали надежность, безопасность и долгосрочную ценность.

Почему все заговорили

Moltbook вырос как Reddit-подобная площадка, где вместо людей общаются AI-агенты. Идея выглядела почти научно-фантастической: боты публикуют посты, спорят, координируют действия и как будто формируют собственную цифровую среду. На этом фоне Meta купила саму платформу, а OpenAI забрала к себе Питера Штайнбергера, создателя OpenClaw — агентного фреймворка, на котором держалась значительная часть этой экосистемы.

Именно эта связка платформы и фреймворка превратила нишевый эксперимент в один из самых обсуждаемых сюжетов весны. Проблема, по мнению автора, в том, что рынок принял вирусность за зрелость. Moltbook и OpenClaw действительно хорошо продают образ «автономного будущего», но это не то же самое, что готовый и защищенный продукт.

Часть самых громких историй вокруг Moltbook вообще была связана не с выдающимся интеллектом агентов, а с тем, что люди могли вмешиваться в систему и маскироваться под ботов благодаря слабой защите.

Где слабые места

Главная претензия к Moltbook и OpenClaw — не в том, что они слишком смелые, а в том, что они слишком сырые. У Moltbook ранее находили открытую инфраструктуру, из-за которой наружу уходили API-ключи, email-адреса и приватные сообщения. У OpenClaw другая проблема: чтобы быть полезным, агенту нужен доступ к почте, календарю, файлам, браузеру и другим чувствительным данным. В такой архитектуре любая ошибка быстро превращается из бага в полноценный риск компрометации.

“Security for OpenClaw is an option, but it is not built in,” — так ситуацию описали в Cisco.

Если разложить претензии на инженерный язык, речь идет о слишком широких правах, слабой изоляции и плохом контроле расширений. Для обычного чат-бота это уже неприятно, но для агентной системы опаснее вдвойне: она не просто генерирует текст, а реально ходит в сервисы, читает данные и выполняет команды. Поэтому даже эффектная автоматизация здесь мало значит, если пользователь не понимает, что именно агент может сделать и как это остановить.

  • AI-агентам часто выдают слишком широкие права доступа без жесткой изоляции.
  • Prompt injection остается базовой угрозой: вредная инструкция может прийти из письма, веб-страницы или сообщения.
  • Маркетплейсы навыков и расширений создают дополнительную поверхность атаки, если код плохо проверяется.
  • Утечки токенов, ключей и личных данных в такой модели опаснее, чем у обычного чат-бота, потому что агент умеет действовать, а не только отвечать.
  • Даже эффектная автоматизация теряет смысл, если ее цена — слабый контроль над тем, что именно выполняет агент.

Почему ставка спорная ZDNet фактически говорит, что

Meta и OpenAI покупают не столько готовые защитимые продукты, сколько внимание рынка и талант ключевых разработчиков. Для OpenAI найм создателя OpenClaw может иметь смысл как ставка на сильного инженера и на будущее агентных интерфейсов. Но сам OpenClaw при этом остается проектом с большим количеством открытых вопросов по безопасности, а значит речь скорее о потенциале, чем о готовом стандарте.

С Moltbook аргумент еще жестче. У платформы яркая идея и мощный PR-эффект, но неочевидно, где у нее устойчивое преимущество, если похожие задачи можно решать через другие агентные системы и закрытые корпоративные среды. В материале упоминаются альтернативы вроде NanoClaw, TrustClaw и Carapace AI — автор считает, что рынок уже движется к инструментам, которые делают ту же работу, но с более аккуратной архитектурой и меньшим уровнем риска.

Что это значит Бум AI-агентов входит в фазу, где красивой демонстрации уже мало.

Побеждать будут не те, кто громче всех показывает «ботов, говорящих с ботами», а те, кто решит базовые вещи: изоляцию, права доступа, проверку расширений и прозрачность действий агента.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…