В Аризоне подали иск против AI ModelForge из-за порноаватаров по фото реальных женщин
В Аризоне три женщины подали иск против создателей AI ModelForge. По версии истцов, мужчины брали фото из соцсетей, генерировали порноаватаров и продавали конте

В Аризоне три женщины подали иск к группе мужчин, которые, по версии истцов, превращали фотографии из соцсетей в AI-порноаватаров и продавали не только результат, но и инструкции по его производству. История важна не из-за масштаба аккаунтов, а потому, что жертвами, как утверждается в иске, становились не знаменитости, а обычные пользовательницы с открытыми профилями.
Как работала схема
Одна из истиц, фигурирующая в материалах суда как MG, рассказала, что вела обычный Instagram-аккаунт, где выкладывала сторис, фото с друзьями и повседневные моменты. Летом ей прислали ссылку на ролики с женщиной, очень похожей на неё: то же лицо, похожее тело, татуировки в тех же местах. По её словам, это выглядело достаточно правдоподобно, чтобы посторонние могли принять такие изображения за настоящие.
По версии иска, трое мужчин из Финикса вместе с другими неустановленными участниками искали фото молодых женщин в интернете, а затем использовали их для создания вымышленных AI-моделей. Такой контент, как утверждают истцы, публиковался в Instagram и TikTok, а также монетизировался на Fanvue. Параллельно через платформу Whop продавалась подписка за $24,95 в месяц на курсы, где другим пользователям объясняли, как строить такие же аккаунты.
В иске описан почти конвейерный процесс: поиск женщин с относительно небольшими аккаунтами в соцсетях сбор фотографий и загрузка их в CreatorCore для обучения модели использование отдельного приложения для «раздевания» изображений и генерации откровенного контента публикация AI-роликов и фото в соцсетях ради охватов * продажа инструкций и шаблонов новым участникам через платное сообщество > «Это было отвратительно на всех уровнях», — так одна из истиц описала увиденное.
Почему иск выделяется
Это дело отличается от многих историй про deepfake-порно тем, что речь идёт не только о публикации изображений без согласия, но и о продаже готовой методички. Адвокат истцов утверждает, что подписчикам якобы объясняли, как выбирать женщин, которые не смогут быстро защитить себя, и где брать их фотографии. В иске отдельно упоминается, что предпочтение отдавалось аккаунтам с аудиторией меньше 50 тысяч подписчиков, чтобы снизить риск юридических претензий.
По данным, приведённым в иске, созданный вокруг этой схемы контент набирал миллионы просмотров и в один из месяцев принёс более $50 тысяч выручки. В документе также говорится, что в 2025 году CreatorCore насчитывал более 8 тысяч подписчиков, которые сгенерировали свыше 500 тысяч изображений и видео. Даже если часть этих цифр ещё предстоит проверить в суде, они показывают, что речь идёт не о маргинальной истории, а о полноценной экономике вокруг AI-инфлюенсеров.
Отдельная деталь — предполагаемый ребрендинг проекта. На момент публикации Linktree AI ModelForge вёл на Telegram-сообщество TaviraLabs с аудиторией более 18 тысяч человек, которое называло себя крупнейшим комьюнити по обучению AI-influencer-моделям. Для таких схем это типично: смена названия, площадки и упаковки позволяет быстро уводить аудиторию от негативного внимания, не ломая саму воронку продаж и не отказываясь от старой бизнес-модели.
Это дополнительно усложняет и для жертв, и для платформ поиск связи между новыми и старыми аккаунтами.
Где ломается защита
Формально у жертв уже есть правовые инструменты, но на практике они срабатывают медленно. Федеральный закон Take It Down Act был подписан в мае 2025 года, однако вступает в силу только в мае 2026-го. Он должен сделать публикацию сексуализированного AI-контента без согласия незаконной и обязать платформы удалять такой материал в течение 48 часов после жалобы.
На уровне штатов похожие запреты уже приняты, включая Аризону, но местные политики сами признают, что эти меры чаще реагируют на ущерб постфактум, чем предотвращают его. Проблема ещё и в модерации платформ. По словам истиц, многие изображения продолжали оставаться в Instagram, потому что формально не подпадали под правила об impersonation: это не точные копии их фото, а новые AI-кадры с тем же лицом и узнаваемыми деталями внешности.
TikTok, как сообщается, удалил часть аккаунтов после обращения журналистов, а Instagram отправил связанные профили на проверку. Но сам зазор между «не её фотография» и «очевидно сделано с неё» пока остаётся огромной серой зоной.
Что это значит
История из Аризоны показывает, что рынок AI-инфлюенсеров уже давно не ограничивается безобидными виртуальными моделями. Если обвинения подтвердятся, это будет пример того, как генеративные инструменты, платные комьюнити и слабая модерация складываются в масштабируемую схему эксплуатации чужой внешности без согласия — и как уязвимым может оказаться почти любой человек с открытым профилем в соцсетях. Для платформ и законодателей это сигнал, что старая логика жалоб и ручного удаления уже не справляется.