Grok и границы дозволенного: британские регуляторы снова пришли за Илоном Маском
Пока Илон Маск продвигает Grok как самый честный ИИ, британские регуляторы находят в этой честности серьезные изъяны. Офис комиссара по информации Великобритани

Илон Маск всегда позиционировал свои продукты как бастионы абсолютной свободы, но европейское законодательство имеет на этот счет свое мнение. Его стартап xAI снова оказался под прицелом британских властей из-за специфических талантов нейросети Grok. Офис комиссара по информации Великобритании (ICO) инициировал уже второе расследование, пытаясь выяснить, почему чат-бот так охотно генерирует сексуализированные изображения реальных людей. Ситуация выглядит иронично, учитывая, что Маск создавал Grok как антипод политкорректным моделям от Google и OpenAI, которые зачастую отказываются рисовать даже безобидные вещи.
Контекст этого противостояния тянется с момента запуска Grok в социальной сети X. Маск обещал ИИ, который не будет читать нотации пользователю и скрывать правду. Однако на практике отсутствие жестких фильтров безопасности привело к тому, что инструмент начали использовать для создания порнографических дипфейков. В Великобритании это не просто этическая проблема, а прямое нарушение законов о защите данных и онлайн-безопасности. Регуляторы обеспокоены тем, что xAI сознательно игнорирует базовые стандарты индустрии, позволяя пользователям манипулировать образами посторонних людей без их согласия.
Первое расследование ICO касалось того, как xAI собирает данные пользователей X для обучения своих моделей. Нынешний виток претензий куда серьезнее, так как он затрагивает вопрос вредоносного контента. В то время как Anthropic и Microsoft вкладывают миллиарды в разработку конституционного ИИ и сложных систем фильтрации, подход Маска кажется регуляторам опасным дилетантством. Британские власти хотят понять, есть ли у Grok вообще механизмы, предотвращающие создание незаконного контента, или компания полагается только на постмодерацию, которая в условиях интернета практически бесполезна.
Для индустрии это дело станет важным прецедентом. Если британский регулятор добьется жестких ограничений или наложит крупный штраф, это создаст цепную реакцию по всей Европе. GDPR и новый закон ЕС об ИИ (AI Act) требуют от разработчиков предсказуемости и контроля над результатами работы нейросетей. Маск же пытается играть по правилам эпохи дикого запада, где ответственность за использование инструмента лежит исключительно на пользователе. Но в 2024 году такая позиция больше не находит понимания у государственных органов, которые видят в ИИ потенциальное оружие для кибербуллинга и дезинформации.
Проблема xAI заключается еще и в том, что Grok интегрирован в платформу X, которая и без того находится в натянутых отношениях с европейскими цензорами. Любая ошибка нейросети мгновенно масштабируется на миллионы пользователей, создавая репутационные риски не только для стартапа, но и для всей экосистемы компаний Маска. Пока конкуренты пытаются сделать свои модели максимально стерильными и безопасными, Grok рискует стать изгоем на рынках с жестким регулированием. Вопрос лишь в том, готов ли Маск пойти на компромисс и внедрить те самые фильтры, над которыми он так долго смеялся в своих постах.
Аналитики отмечают, что технически внедрить ограничения не так сложно — большинство современных моделей используют многоуровневые классификаторы для блокировки подозрительных промптов. Сопротивление xAI носит скорее идеологический характер. Однако идеология редко выигрывает в судах против регуляторов, когда речь идет о защите частной жизни граждан. В ближайшие месяцы мы увидим, превратится ли Grok в послушного корпоративного помощника или продолжит балансировать на грани закона, рискуя полным запретом в Великобритании и странах Евросоюза.
Главное: Илону Маску придется научить Grok правилам приличия, иначе британские штрафы превратят амбициозный стартап в очень дорогое и юридически токсичное хобби.