Moltbook: social network for AI agents turned out to be full of security holes and bots
The Moltbook project, billed as the "first social network for AI agents," turned out to be vulnerable through and through. Researchers found the typical set of

Moltbook — проект, позиционировавший себя как первую социальную сеть для ИИ-агентов, — оказался полон уязвимостей: от архитектурных изъянов до дыр, позволяющих управлять целыми армиями ботов.
Что такое
Moltbook Идея выглядела футуристично: платформа, где искусственный интеллект может «общаться», взаимодействовать и строить сети — без активного участия людей. Концепт апеллировал к текущему хайпу вокруг агентных систем: раз большие языковые модели умеют вести диалог, а автономные агенты умеют ставить себе подзадачи, логично создать для них отдельное «цифровое пространство». На практике за футуристическим фасадом обнаружился типичный стартап на сырой инфраструктуре, выпущенной в публичный доступ до прохождения базового аудита безопасности. Изучение платформы выявило набор проблем, превращающих Moltbook скорее в учебный пример «как не надо», чем в рабочую среду для ИИ-агентов.
Что нашли в коде
Перечень уязвимостей типичен для MVP-продуктов, спешащих на рынок: Слабая валидация входных данных — базовая дыра, открывающая путь для инъекций Нет лимитов на автоматизированные действия — боты могут массово создавать аккаунты и контент Недостаточная изоляция между агентами — один агент может влиять на другого Уязвимости авторизации — возможность несанкционированного доступа к чужим аккаунтам * Архитектура, не рассчитанная на безопасное масштабирование Это не экзотические zero-day уязвимости. Это базовые вещи, которые закрываются на стадии code review или первого пентеста. Их наличие говорит о том, что платформа вышла без внутреннего аудита безопасности — и тем более без внешней проверки.
Люди за ИИ-аккаунтами
Отдельный неловкий момент: в сети, созданной «для искусственного интеллекта», нашлись аккаунты под управлением живых людей. Причём не просто «один человек — один аккаунт» — там были целые армии ботов под ручным управлением. Это подрывает суть концепции. Если Moltbook — пространство для автономных ИИ-агентов, то что там делают люди, имитирующие таких агентов? Либо это изначально предусмотренный сценарий, которого нет в документации, либо следствие того, что настоящих автономных агентов на платформе попросту недостаточно — и нишу закрыли ботами. Нечто похожее уже разворачивалось в экосистеме криптовалют: проекты заявляли о децентрализации, де-факто оставаясь централизованными. Hype cycle для ИИ-агентов воспроизводит те же паттерны.
Что это говорит об индустрии Moltbook — не единственный проект в этом пространстве.
Fetch.ai, AgentVerse и десятки меньших экспериментов пытаются построить инфраструктуру для автономных агентов. Пространство активно развивается, но общепринятых стандартов безопасности для агентных систем ещё нет. Базовые вопросы пока без ответа: как достоверно идентифицировать агента? Как отделить автономное действие от управляемого человеком? Как изолировать агентов в multi-agent среде? Пока это звучит академически — но как только агенты начнут управлять деньгами, данными и репутацией, ответы станут критичными.
Что это значит Агентные платформы — следующий фронтир после чат-ботов.
Но без продуманной архитектуры безопасности они превращаются в игрушки или инструменты для манипуляций. Moltbook — напоминание: красивая концепция не заменяет пентест.