La réalisatrice Valerie Veatch : les enthousiastes de l'AI ne voient pas le racisme et l'eugénisme dans leurs outils
La réalisatrice Valerie Veatch est entrée dans la communauté AI après la sortie de Sora en 2024 — elle était attirée par l'espoir d'une union créative. Au lieu

Режиссёр-документалист Вэлери Вич пришла к генеративному ИИ так же, как большинство людей — из любопытства. Когда OpenAI в 2024 году открыл публичный доступ к Sora, модели, превращающей текст в видео, она не до конца понимала, как эта технология устроена, но хотела посмотреть, на что она способна. Особенно её привлекало сообщество художников, которые делились своими AI-работами онлайн.
Казалось, это новое пространство для творческого диалога. Однако то, что Вич обнаружила внутри, её потрясло. Генеративные модели снова и снова выдавали изображения, пропитанные расизмом и сексизмом — стереотипные образы, отражающие глубоко укоренившиеся предубеждения в обучающих данных.
Сама по себе предвзятость в ИИ не новость: исследователи говорят об этом с момента появления первых языковых моделей. Но Вич столкнулась не только с самой проблемой — она столкнулась с реакцией на неё, точнее с её отсутствием. Энтузиасты, с которыми она оказалась в одном сообществе, в большинстве своём эту проблему не замечали или предпочитали игнорировать.
Технология была интересной, результаты — захватывающими, и разбираться с тем, что машина воспроизводит исторически сложившуюся иерархию, никто особенно не хотел. Это безразличие оказалось для Вич более тревожным сигналом, чем сами артефакты в выдаче ИИ. В итоге её опыт лёг в основу документального фильма Ghost in the Machine, в котором она исследует не столько технические особенности генеративного ИИ, сколько идеологию, которая за ним стоит.
Название её интервью The Verge — «Gen AI Kool-Aid tastes like eugenics» — звучит как провокация, но в нём есть конкретный тезис: нарратив о прогрессе, который транслирует индустрия, уходит корнями в ту же почву, что и евгеника. Идея о том, что технологии сделают мир лучше, автоматически отсеивая «неэффективное» и «несовершенное», воспроизводит логику, которую человечество уже осудило в другом контексте. Вич не первая проводит подобную параллель.
Критики технологического оптимизма давно указывают на то, что Silicon Valley-нарратив о «улучшении» людей и систем с помощью данных и алгоритмов несёт в себе иерархическую, а порой прямо дискриминационную подоплёку. Но документальный формат позволяет показать это не через академическую аргументацию, а через личный опыт — и именно это делает позицию Вич трудной для отмахивания. История её вхождения в AI-пространство типична.
Большинство пользователей сначала восхищаются возможностями, потом замечают проблемы — и здесь начинается развилка. Одни начинают требовать изменений. Другие рационализируют: «технология нейтральна», «это артефакты данных», «всё улучшится со временем».
Именно это молчаливое согласие Вич считает главным симптомом. То, что она описывает — не технический баг, который можно устранить следующим обновлением. Это вопрос о том, чьи ценности кодируются в инструменты, которые формируют визуальную культуру.
И пока индустрия генеративного ИИ растёт быстрее, чем успевает осмыслить собственные последствия, голоса вроде Вич остаются важным противовесом — тем более что задают они неудобные вопросы не снаружи, а изнутри.