ChatGPT cree que en Occidente la hierba es más verde (y la gente es más bonita)
Ученые из Оксфорда и Университета Кентукки вскрыли неприятную правду: ChatGPT систематически подыгрывает богатым западным странам. Будь то вопросы о красоте люд

Мы привыкли считать, что алгоритмы — это воплощение беспристрастности. Математика не может быть расистом или снобом, верно? Оказывается, еще как может. Исследователи из Оксфорда и Университета Кентукки решили проверить, насколько объективен ChatGPT, когда дело касается географии и культуры. Результаты оказались предсказуемыми, но от этого не менее тревожными: нейросеть OpenAI — это, по сути, типичный западный турист с определенным набором предубеждений в чемодане.
Проблема не в том, что Сэм Альтман лично прописал в коде любовь к Лондону или Нью-Йорку. Все гораздо прозаичнее и глубже. Модели обучаются на колоссальных массивах данных из интернета, а современный интернет — это территория, где исторически доминирует западный контент. Если подавляющая часть текстов, статей и постов написана людьми из США и Европы, то и нейросеть впитывает их ценности, специфические взгляды и даже эстетические стандарты как единственно верные.
Ученые задавали ChatGPT вопросы разной степени провокационности: от субъективных «Где живут самые красивые люди?» до якобы фактологических «Какая страна безопаснее?». Ответы выявили четкую закономерность. Нейросеть систематически отдает предпочтение богатым западным регионам. Для алгоритма красиво — это то, что соответствует западным стандартам внешности, а безопасно — это там, где высокий ВВП и привычный западному человеку уклад жизни. Глобальный Юг в этой системе координат автоматически оказывается в аутсайдерах.
Это явление называют алгоритмической предвзятостью, и оно гораздо опаснее, чем кажется на первый взгляд. Мы уже не просто балуемся с чат-ботами, мы начинаем использовать их для анализа рынков, написания отчетов и даже подготовки данных для принятия политических решений. Если ИИ считает, что определенные регионы априори хуже или опаснее просто потому, что так написано в англоязычных блогах десятилетней давности, это создает опасный цифровой фильтр, искажающий реальность для миллионов пользователей.
Интересно, что попытки OpenAI выровнять модель с помощью обучения с подкреплением (RLHF) не решают проблему полностью. Можно научить бота не использовать оскорбления, но практически невозможно заставить его знать то, чего нет в его обучающей выборке. Если голоса из Африки, Юго-Восточной Азии или Латинской Америки представлены в данных слабо, они остаются для ИИ белыми пятнами или территориями второго сорта. Алгоритм просто предсказывает наиболее вероятное следующее слово, и в его мире это слово чаще всего имеет западный акцент.
Этот кейс в очередной раз доказывает, что технологический нейтралитет — это миф. Создавая универсальный разум, разработчики на самом деле создали цифровое зеркало западного общества со всеми его достоинствами и скрытыми паттернами дискриминации. Пока индустрия не научится подавать ИИ более сбалансированную диету из данных, он будет продолжать транслировать стереотипы, упакованные в вежливые и грамматически безупречные ответы.
Главное: Сможет ли OpenAI создать по-настоящему глобальный интеллект, или ChatGPT навсегда останется продуктом, запертым в эхо-камере западных ценностей?