Moltbook: соцсеть для ИИ-агентов оказалась полна дыр в безопасности и ботов
Проект Moltbook, позиционировавшийся как «первая соцсеть для ИИ-агентов», оказался насквозь уязвимым. Исследователи нашли типичный набор MVP-проблем: слабая вал

Moltbook — проект, позиционировавший себя как первую социальную сеть для ИИ-агентов, — оказался полон уязвимостей: от архитектурных изъянов до дыр, позволяющих управлять целыми армиями ботов.
Что такое
Moltbook Идея выглядела футуристично: платформа, где искусственный интеллект может «общаться», взаимодействовать и строить сети — без активного участия людей. Концепт апеллировал к текущему хайпу вокруг агентных систем: раз большие языковые модели умеют вести диалог, а автономные агенты умеют ставить себе подзадачи, логично создать для них отдельное «цифровое пространство». На практике за футуристическим фасадом обнаружился типичный стартап на сырой инфраструктуре, выпущенной в публичный доступ до прохождения базового аудита безопасности. Изучение платформы выявило набор проблем, превращающих Moltbook скорее в учебный пример «как не надо», чем в рабочую среду для ИИ-агентов.
Что нашли в коде
Перечень уязвимостей типичен для MVP-продуктов, спешащих на рынок: Слабая валидация входных данных — базовая дыра, открывающая путь для инъекций Нет лимитов на автоматизированные действия — боты могут массово создавать аккаунты и контент Недостаточная изоляция между агентами — один агент может влиять на другого Уязвимости авторизации — возможность несанкционированного доступа к чужим аккаунтам * Архитектура, не рассчитанная на безопасное масштабирование Это не экзотические zero-day уязвимости. Это базовые вещи, которые закрываются на стадии code review или первого пентеста. Их наличие говорит о том, что платформа вышла без внутреннего аудита безопасности — и тем более без внешней проверки.
Люди за ИИ-аккаунтами
Отдельный неловкий момент: в сети, созданной «для искусственного интеллекта», нашлись аккаунты под управлением живых людей. Причём не просто «один человек — один аккаунт» — там были целые армии ботов под ручным управлением. Это подрывает суть концепции. Если Moltbook — пространство для автономных ИИ-агентов, то что там делают люди, имитирующие таких агентов? Либо это изначально предусмотренный сценарий, которого нет в документации, либо следствие того, что настоящих автономных агентов на платформе попросту недостаточно — и нишу закрыли ботами. Нечто похожее уже разворачивалось в экосистеме криптовалют: проекты заявляли о децентрализации, де-факто оставаясь централизованными. Hype cycle для ИИ-агентов воспроизводит те же паттерны.
Что это говорит об индустрии Moltbook — не единственный проект в этом пространстве.
Fetch.ai, AgentVerse и десятки меньших экспериментов пытаются построить инфраструктуру для автономных агентов. Пространство активно развивается, но общепринятых стандартов безопасности для агентных систем ещё нет. Базовые вопросы пока без ответа: как достоверно идентифицировать агента? Как отделить автономное действие от управляемого человеком? Как изолировать агентов в multi-agent среде? Пока это звучит академически — но как только агенты начнут управлять деньгами, данными и репутацией, ответы станут критичными.
Что это значит Агентные платформы — следующий фронтир после чат-ботов.
Но без продуманной архитектуры безопасности они превращаются в игрушки или инструменты для манипуляций. Moltbook — напоминание: красивая концепция не заменяет пентест.