Un Étudiant en Médecine a Gagné des Milliers en Vendant une Fausse Fille Conservatrice Générée par IA
Un étudiant en médecine a admis gagner des milliers en vendant des photos et vidéos d'une jeune fille conservatrice inexistante de style MAGA — un personnage en

Студент медицинского вуза в США признался, что зарабатывает тысячи долларов, продавая фотографии и видеозаписи молодой женщины, которой не существует. Её образ — политически активной консерваторки в стиле MAGA — целиком создан с помощью инструментов генеративного ИИ. Схема работает, потому что покупатели не знают, что платят за иллюзию.
Механика мошенничества проста. Человек создаёт детальный персонаж с именем, историей и политическими взглядами, затем генерирует с помощью нейросетей фотографии и видео, которые выглядят убедительно. Готовый контент продаётся на платформах для взрослых и через закрытые подписки — по модели, которую давно используют реальные создатели контента.
Покупатели, преимущественно мужчины с правоконсервативными взглядами, верят, что поддерживают реальную девушку. Сам студент-медик, пожелавший остаться анонимным, описал свою аудиторию как «очень тупых» людей. По его словам, он вложил минимум усилий: инструменты ИИ сделали большую часть работы.
Выручка исчислялась тысячами долларов при относительно небольшой аудитории. Студент не скрывает цинизма: аудитория ему нужна как источник дохода, а не как сообщество единомышленников. Это не единичный случай.
Журналисты Wired выяснили, что подобные схемы стремительно распространяются. Несколько операторов целенаправленно используют архетип молодой патриотичной американки — сторонницы Трампа, активистки MAGA — именно потому, что этот образ вызывает особое доверие у определённой аудитории. Политическая идентичность встроена в продукт как часть приманки.
Феномен отражает сразу несколько тревожных тенденций. Порог входа в подобный бизнес упал практически до нуля: современные генеративные инструменты позволяют создавать убедительные образы без каких-либо технических навыков. Достаточно нескольких часов работы с общедоступными платформами, чтобы получить готового персонажа с внешностью, голосом и личностью.
Доверие внутри политически однородных сообществ при этом становится уязвимостью. Люди охотнее платят тому, кто разделяет их ценности, — даже если этот человек не существует. Ощущение своих снижает критическое восприятие и повышает готовность к финансовым вложениям.
Мошенники это понимают и используют. Правовая база для борьбы с подобным мошенничеством остаётся крайне размытой. Продажа AI-сгенерированных фотографий сама по себе не является преступлением в большинстве штатов США.
Вопросы возникают лишь тогда, когда контент содержит откровенные сцены или когда операторы явно обещают личное общение с несуществующим человеком. Но и тогда правоприменение остаётся непоследовательным. Психологическое измерение этой схемы не менее важно.
Мужчины, которые платят за подобный контент, чаще всего покупают не просто фотографии. Они платят за иллюзию связи с единомышленницей, за ощущение, что кто-то разделяет их политические и культурные взгляды. ИИ-персонаж эксплуатирует не только кошелёк, но и потребность в принадлежности к сообществу.
Исследователи дезинформации предупреждают, что подобные схемы могут использоваться не только ради заработка. Убедительный AI-аккаунт с лояльной аудиторией способен влиять на политические настроения, продвигать нарративы и манипулировать мнением — причём без какой-либо прозрачности о своей природе. Разница между коммерческим мошенничеством и политической операцией в данном случае минимальна.
Пока законодатели пытаются сформулировать правила регулирования дипфейков и синтетических медиа, рынок AI-персонажей уже функционирует и масштабируется. Медицинский студент из этой истории — лишь один из многих, кто обнаружил простую формулу: создать несуществующего человека с нужными взглядами дешевле, чем работать с реальным контент-мейкером. А некоторые виды доверия продаются исключительно хорошо.