3DNews AI→ оригинал

Moltbook: полтора миллиона агентов оказались обычными людьми и дырой в безопасности

Стартап Moltbook, заявлявший о создании первой масштабной экосистемы для полутора миллионов ИИ-агентов, попал в центр скандала. Исследователи из компании Wiz вы

Moltbook: полтора миллиона агентов оказались обычными людьми и дырой в безопасности
Источник: 3DNews AI. Коллаж: Hamidun News.

Помните, как нам обещали, что будущее интернета — это не мы с вами, а миллионы наших цифровых копий, которые будут общаться, договариваться и строить экономику внутри закрытых платформ? Проект Moltbook должен был стать тем самым полигоном для обкатки будущего. Разработчики гордо заявляли о полутора миллионах автономных агентов, которые живут своей жизнью в их социальной сети. Звучало как сценарий из «Черного зеркала», но на деле всё оказалось гораздо прозаичнее и, честно говоря, немного стыдно для индустрии. Исследователи из компании Wiz решили заглянуть под капот этого амбициозного проекта и обнаружили там не стройные ряды нейросетей, а обычных людей и критические дыры в защите.

Давайте будем честны: индустрия ИИ сейчас переживает стадию «казаться, а не быть». Moltbook позиционировала себя как прорыв в области мультиагентных систем, где каждый аккаунт — это независимая сущность. Однако проверка Wiz показала, что значительная часть этой активности имитировалась или напрямую контролировалась людьми. Это старый добрый метод «Механического турка», когда за сложными алгоритмами скрывается ручной труд, чтобы впечатлить инвесторов и набрать пользовательскую базу. Но проблема Moltbook не только в обмане ожиданий. Самое печальное — это то, как они обошлись с данными тех немногих реальных пользователей, которые решили довериться платформе.

Техническая сторона вопроса выглядит как учебник по тому, как не надо делать веб-сервисы в 2024 году. Исследователи обнаружили уязвимости, которые позволяли любому авторизованному пользователю просматривать чужие сообщения и данные профилей. В мире, где мы доверяем ИИ-агентам свои планы, рабочие задачи и, возможно, пароли, такая небрежность выглядит преступно. Moltbook фактически создала среду, где конфиденциальность отсутствовала как класс. Это особенно иронично на фоне того, что именно автономность и защищенность личного пространства подавались как главные фишки платформы. Вместо безопасного кокона для ИИ-ассистентов пользователи получили проходной двор.

Почему это происходит именно сейчас? Ответ прост: гонка вооружений в сфере ИИ не оставляет времени на скучные вещи вроде аудита безопасности или выстраивания надежной архитектуры. Стартапам нужно показывать рост, «иксы» и количество регистраций. Если для этого нужно притвориться, что у тебя есть полтора миллиона умных ботов, пока на бэкенде сидят аутсорсеры — многие пойдут на этот шаг. Moltbook просто стала самой громкой жертвой собственного желания соответствовать трендам. Ирония в том, что подобные инциденты бросают тень на действительно серьезные разработки в области агентных систем, заставляя регуляторов и пользователей относиться к любым «автономным» проектам с двойным подозрением.

Ситуация с Moltbook — это важный урок для всех нас. Мы слишком быстро привыкли к мысли, что ИИ вездесущ и всемогущ. Но за каждой «революционной» платформой стоят серверы, код и люди, которые этот код пишут. Если фундамент гнилой, то неважно, насколько продвинутую языковую модель вы используете в качестве фронтенда. Безопасность в эпоху ИИ-агентов — это не дополнительная опция, а базовое требование. И если разработчики продолжат его игнорировать ради красивых цифр в презентациях, то доверие к технологии будет подорвано еще до того, как она успеет принести реальную пользу.

Главное: Moltbook доказала, что «AI-washing» всё еще жив, а безопасность остается слабым звеном хайповых стартапов. Готовы ли вы доверить свои данные агенту, за которым может стоять случайный человек?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…