The Verge→ оригинал

المخرجة فاليري فيتش: المتحمسون لـ AI لا يلاحظون العنصرية وتحسين النسل في أدواتهم

دخلت المخرجة فاليري فيتش إلى مجتمع AI بعد إطلاق Sora في 2024 — وكان يجذبها الأمل في تلاحم إبداعي. لكنها وجدت بدلًا من ذلك صورًا عنصرية ومتحيزة جنسيًا في مخرجات

المخرجة فاليري فيتش: المتحمسون لـ AI لا يلاحظون العنصرية وتحسين النسل في أدواتهم
Источник: The Verge. Коллаж: Hamidun News.

Режиссёр-документалист Вэлери Вич пришла к генеративному ИИ так же, как большинство людей — из любопытства. Когда OpenAI в 2024 году открыл публичный доступ к Sora, модели, превращающей текст в видео, она не до конца понимала, как эта технология устроена, но хотела посмотреть, на что она способна. Особенно её привлекало сообщество художников, которые делились своими AI-работами онлайн.

Казалось, это новое пространство для творческого диалога. Однако то, что Вич обнаружила внутри, её потрясло. Генеративные модели снова и снова выдавали изображения, пропитанные расизмом и сексизмом — стереотипные образы, отражающие глубоко укоренившиеся предубеждения в обучающих данных.

Сама по себе предвзятость в ИИ не новость: исследователи говорят об этом с момента появления первых языковых моделей. Но Вич столкнулась не только с самой проблемой — она столкнулась с реакцией на неё, точнее с её отсутствием. Энтузиасты, с которыми она оказалась в одном сообществе, в большинстве своём эту проблему не замечали или предпочитали игнорировать.

Технология была интересной, результаты — захватывающими, и разбираться с тем, что машина воспроизводит исторически сложившуюся иерархию, никто особенно не хотел. Это безразличие оказалось для Вич более тревожным сигналом, чем сами артефакты в выдаче ИИ. В итоге её опыт лёг в основу документального фильма Ghost in the Machine, в котором она исследует не столько технические особенности генеративного ИИ, сколько идеологию, которая за ним стоит.

Название её интервью The Verge — «Gen AI Kool-Aid tastes like eugenics» — звучит как провокация, но в нём есть конкретный тезис: нарратив о прогрессе, который транслирует индустрия, уходит корнями в ту же почву, что и евгеника. Идея о том, что технологии сделают мир лучше, автоматически отсеивая «неэффективное» и «несовершенное», воспроизводит логику, которую человечество уже осудило в другом контексте. Вич не первая проводит подобную параллель.

Критики технологического оптимизма давно указывают на то, что Silicon Valley-нарратив о «улучшении» людей и систем с помощью данных и алгоритмов несёт в себе иерархическую, а порой прямо дискриминационную подоплёку. Но документальный формат позволяет показать это не через академическую аргументацию, а через личный опыт — и именно это делает позицию Вич трудной для отмахивания. История её вхождения в AI-пространство типична.

Большинство пользователей сначала восхищаются возможностями, потом замечают проблемы — и здесь начинается развилка. Одни начинают требовать изменений. Другие рационализируют: «технология нейтральна», «это артефакты данных», «всё улучшится со временем».

Именно это молчаливое согласие Вич считает главным симптомом. То, что она описывает — не технический баг, который можно устранить следующим обновлением. Это вопрос о том, чьи ценности кодируются в инструменты, которые формируют визуальную культуру.

И пока индустрия генеративного ИИ растёт быстрее, чем успевает осмыслить собственные последствия, голоса вроде Вич остаются важным противовесом — тем более что задают они неудобные вопросы не снаружи, а изнутри.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…