Грязная работа для «чистого» интеллекта: как индийские женщины платят психикой за безопасность ваших нейросетей
Пока мы восторгаемся тем, насколько вежливыми стали нейросети, за кулисами разворачивается гуманитарная катастрофа. В сельских районах Индии тысячи женщин работ

Представьте типичную индийскую деревню: звуки посуды, крики детей, запах специй. И среди этой пасторали молодая женщина сидит с ноутбуком на глиняном выступе. Она не пишет код будущего и не создает цифровое искусство. На её экране — сцена жестокого насилия, которую камера фиксирует во всех подробностях. Она обязана досмотреть это до конца, чтобы поставить нужный тег. Это не сценарий киберпанк-антиутопии, а повседневная реальность тех, кто делает ваш ИИ «безопасным». Пока OpenAI, Google и Anthropic соревнуются в этичности своих моделей, грязную работу выполняют люди, чьи имена никогда не появятся в титрах.
Индустрия искусственного интеллекта сегодня одержима понятием «выравнивания» (alignment). Мы хотим, чтобы нейросети не давали рецептов напалма, не пропагандировали ненависть и не хамили пользователям. Но чтобы добиться этого, алгоритмам нужно сначала показать, что именно является «плохим». Миллионы часов видео с насилием, пытками и эксплуатацией нужно разметить вручную. Иронично, что для создания искусственного интеллекта, который не ранит чувства западного пользователя, приходится наносить вполне реальные и глубокие психические травмы жителям Глобального Юга. Это своего рода цифровой колониализм: мы экспортируем этическую чистоту, оставляя токсичные отходы в виде разрушенной психики рабочих.
Компании вроде Scale AI, Appen или Sama нанимают десятки тысяч работников в Индии, Кении и на Филиппинах. Для женщин в сельской Индии, таких как Монсуми Мурму, это часто единственный шанс заработать, не выходя из дома и не бросая семью. Но цена оказывается непомерно высокой. После десяти часов просмотра сцен сексуализированного насилия или убийств психика просто «отключается». Работницы описывают это состояние как «пустоту» или «белое пятно». Они возвращаются к своим семьям, к своим детям, но не могут чувствовать радость или близость. Это не просто тяжелая работа, это планомерный экспорт посттравматического стрессового расстройства в промышленных масштабах.
Проблема усугубляется тем, что технологические гиганты максимально дистанцируются от этой цепочки поставок. Они покупают уже «чистые» наборы данных у подрядчиков, а те, в свою очередь, экономят на всем, включая психологическую поддержку. В контрактах часто прописаны требования к производительности, но почти никогда — требования к охране ментального здоровья. В итоге мы имеем классическую схему: сырьё (данные) добывается в тяжелых условиях, очищается за копейки в беднейших регионах и продается как элитный, «инновационный» продукт в Сан-Франциско. Без этого живого щита из человеческой психики никакой GPT-4 не продержался бы и дня без громкого скандала.
Самое печальное в этой ситуации — отсутствие альтернативы. Автоматизировать этот процесс пока невозможно: чтобы научить ИИ распознавать насилие, нужен человек, который скажет, что это насилие. Мы попали в ловушку, где гуманизм одной части человечества строится на дегуманизации другой. Пока в Кремниевой долине обсуждают риски восстания роботов, в индийских деревнях женщины теряют способность чувствовать, просто чтобы ваш чат-бот не сказал лишнего. Это фундаментальный дефект современной тех-индустрии, который принято стыдливо замалчивать за презентациями о «пользе для человечества».
Главное: Безопасность ИИ сегодня — это не только изящные математические формулы, но и тысячи сломанных судеб на другом конце планеты. Сможет ли индустрия создать автоматические фильтры для обучения фильтров, или «человеческое мясо» так и останется самым дешевым компонентом нейросетей?