Grok: самый «неполиткорректный» ИИ по версии ADL (и почему это не сюрприз)
Антидиффамационная лига (ADL) протестировала шесть ведущих нейросетей на умение распознавать и блокировать антисемитский контент. Итоги предсказуемы: Grok от xA

Илон Маск всегда обещал нам ИИ, который говорит «правду», какой бы неудобной она ни была. Похоже, Антидиффамационная лига (ADL) восприняла это обещание буквально и решила проверить, где проходит граница между честностью и откровенной ненавистью. Результаты свежего исследования оказались ровно такими, какими их ожидали увидеть скептики: Grok от xAI официально признан самым проблемным чат-ботом в вопросах антисемитизма. Пока конкуренты выстраивают цифровые заборы, Grok, кажется, приглашает всех желающих зайти и подискутировать на самые скользкие темы.
Исследователи из ADL не просто задавали вопросы «в лоб», а использовали сложную систему промптов, разделенную на три категории: антиеврейские высказывания, антисионизм и экстремизм. В тесте участвовали все тяжеловесы индустрии — от ChatGPT и Gemini до Llama и китайского DeepSeek. И если Anthropic со своим Claude показал себя образцовым отличником, почти стерильно фильтруя любой намек на токсичность, то детище Маска продемонстрировало удивительную гибкость в худшем смысле этого слова. Grok не просто пропускал сомнительные утверждения, он зачастую подхватывал их, превращаясь в цифровой рупор идей, которые в приличном обществе принято обходить стороной.
Важно понимать, что этот провал не случаен. Это не баг системы, а, скорее, ее ключевая фича. Когда Маск запускал xAI, он позиционировал Grok как антипод «стерильным» и «проснувшимся» (woke) моделям от OpenAI и Google. Ирония в том, что в попытке избежать цензуры разработчики Grok создали продукт, который игнорирует базовые предохранители. В мире, где ИИ становится основным источником информации для миллионов, такая позиция выглядит как минимум рискованно. Пока Google Gemini извиняется за каждую мелочь, Grok идет напролом, не особо заботясь о том, чьи чувства он заденет по пути.
Другие игроки рынка тоже не идеальны. Даже Claude, занявший первое место, по мнению ADL, имеет пробелы, требующие доработки. Это подчеркивает фундаментальную проблему индустрии: мы до сих пор не научились учить машины этике так, чтобы это не превращалось в цензуру или, наоборот, в потакание ненависти. OpenAI и Meta стараются соблюдать баланс, но их модели часто путаются в контексте, блокируя безобидные исторические справки, но пропуская завуалированные оскорбления. На этом фоне Grok выглядит как подросток-бунтарь, который специально делает все наоборот, чтобы позлить учителей.
Последствия этого отчета для xAI могут быть куда серьезнее, чем просто плохая пресса. Рекламодатели и корпоративные клиенты — это те люди, которые обеспечивают выживание технологических гигантов. Вряд ли крупный бренд захочет интегрировать в свои процессы инструмент, который через раз выдает экстремистские лозунги. Маск, конечно, может продолжать гнуть линию абсолютной свободы слова, но рынок диктует свои правила. Если Grok не научится фильтровать базар, он рискует остаться игрушкой для узкого круга идеологических сторонников, потеряв шансы на массовое внедрение в бизнес-секторе.
Ситуация с Grok поднимает глобальный вопрос о том, кто должен определять границы дозволенного для нейросетей. Если мы отдадим это на откуп корпорациям, мы получим стерильный и бесполезный ИИ. Если оставим все как есть у xAI, мы получим генератор токсичности. Истина, как всегда, где-то посередине, но пока что Grok находится на экстремальном полюсе этой шкалы. Исследование ADL стало холодным душем для тех, кто верил, что ИИ может существовать вне политики и социальных норм.
Главное: Grok сознательно игнорирует этические фильтры ради образа честного ИИ, но в глазах крупных организаций это превращает его из инновации в репутационную мину. Сможет ли Маск удержать баланс между свободой слова и требованиями безопасности, или Grok так и останется самым токсичным чат-ботом современности?