Des modèles cherchent des emplois 'AI face model' — et deviennent des outils pour les arnaqueurs
Les canaux Telegram sont inondés d'annonces d'emploi 'AI face model' — les employeurs cherchent des personnes disposées à participer à des appels vidéo jusqu'à

Тысячи людей ищут подработку в интернете — и некоторые натыкаются на объявления с необычным предложением: стать «AI face model» и зарабатывать, просто участвуя в видеозвонках по 100 сессий в день. Работа выглядит странной, но безобидной. На деле за ней скрывается индустрия мошенничества промышленного масштаба.
Журналисты издания WIRED изучили десятки Telegram-каналов и обнаружили в них систематические объявления о найме «AI-моделей» — людей, чьё лицо будет использоваться в схемах с искусственным интеллектом. Характер каналов варьируется: одни позиционируют себя как платформы для фриланса, другие — как агентства видеомоделей. Большинство кандидатов — женщины.
Работодатели обещают гибкий график, высокую оплату и простые требования: хорошая внешность, умение держаться в кадре и готовность работать с утра до ночи. Про настоящую цель работы — ни слова. По данным расследования, нанятые люди, сами того не зная, становятся «лицом» классических мошеннических схем: романтических афер (romance scam), инвестиционного мошенничества и финансовых манипуляций.
Их изображения и видео используются для создания дипфейков или как живое прикрытие — жертва видит реального человека на экране и теряет бдительность. В результате люди переводят деньги тому, кого никогда не существовало. Схема работает по нескольким сценариям.
В одних случаях «модель» сама ведёт звонок по заранее подготовленному скрипту — фактически выступая мошенником, хотя и не осознавая этого полностью. В других её изображение или видеопоток используется в реальном времени через AI-инструменты подмены лица (face swap), а реальные слова произносит кто-то другой за кадром. Второй вариант технически удобен тем, что «модель» формально «не обманывала» — хотя фактически участвовала в преступлении и предоставила свою биометрию для незаконного использования.
Технологический порог для подобных операций за последние два года резко упал. Инструменты замены лица в реальном времени — DeepFaceLive, различные форки на базе InsightFace и другие решения — доступны бесплатно и работают на обычном игровом ПК. Качество подмены лица выросло настолько, что жертвам сложно заметить подвох, особенно при нестабильном соединении, которое мошенники могут намеренно ухудшать.
Базовая установка занимает несколько часов и не требует специальных знаний. Для запуска такой схемы больше не нужна профессиональная студия — достаточно Telegram-канала и нескольких сотен долларов на оплату исполнителей. Важно понимать масштаб явления.
Telegram-каналы с вакансиями «AI face model» насчитывают тысячи подписчиков, и некоторые работают совершенно открыто. В объявлениях прямо пишут про «эмоциональное общение с клиентами», «построение доверительных отношений онлайн» и высокую оплату за «эффективные» звонки. Для тех, кто знаком с индустрией romance scam, этого достаточно, чтобы понять суть.
Для наивного соискателя — нет. Юридическая сторона вопроса крайне неоднозначна. Человек, который просто разговаривает по скрипту, может искренне не осознавать, что участвует в мошенничестве — особенно если работодатель тщательно скрывает конечную цель операции.
Тем не менее в ряде юрисдикций участие в подобных схемах, даже без умысла, может квалифицироваться как соучастие. Те же, кто использует чужое лицо без ведома человека или с формального согласия, но для незаконных целей, нарушают сразу несколько норм права: о биометрических данных, о мошенничестве и о защите персональной информации. Это расследование наглядно показывает, как AI-инструменты превращаются в инфраструктуру преступного бизнеса.
Романтические аферы с дипфейками — уже не случайные инциденты, а систематизированная индустрия с рекрутингом, скриптами, KPI и разделением ролей. Жертвы теряют деньги, невольные «модели» рискуют уголовным преследованием, а платформы вроде Telegram медленно реагируют на очевидные нарушения. Пока регуляторы не выработают чёткий ответ, а платформы не введут реальные механизмы контроля, подобные схемы будут только масштабироваться.