Un tribunal d'Amsterdam interdit à xAI et Grok de créer des images de nus sans consentement
Un tribunal d'Amsterdam a interdit à xAI et Grok de créer et de distribuer des images de personnes nues aux Pays-Bas sans consentement. La décision porte sur l'

Амстердамский суд запретил компании xAI генерировать и распространять в Нидерландах изображения людей без одежды без их согласия. Решение напрямую затрагивает Grok и показывает, что для спорных AI-функций в Европе быстро сужается пространство для экспериментов.
Решение суда
Суд в Амстердаме фактически поставил границу для одного из самых токсичных сценариев генеративного AI: создание «раздетых» изображений реальных людей без их разрешения. Речь идет не о художественном фильтре и не о стилизации, а о контенте, который может имитировать интимные фотографии и использоваться против воли человека. Для xAI это не абстрактное предупреждение, а прямой запрет на генерацию и распространение такого материала в Нидерландах.
Сам по себе факт судебного вмешательства показывает, что вопрос уже вышел за пределы дискуссий об этике продукта. Важно и то, что решение касается не только публикации готовых изображений, но и самой возможности их создавать. Это меняет рамку спора: суд смотрит на функцию как на потенциальный инструмент нарушения прав, а не просто на контент, который кто-то потом может выложить в сеть.
Такой подход усиливает давление на разработчиков моделей и интерфейсов. Если функция изначально позволяет злоупотребление, суды и регуляторы все чаще готовы ограничивать ее еще на уровне продукта, а не ждать массовых жалоб от пострадавших.
Почему это важно
История вокруг «раздевания» людей с помощью AI вызывает особую реакцию потому, что здесь технология бьет сразу по нескольким чувствительным зонам: частной жизни, согласию и репутации. Даже если изображение полностью синтетическое, ущерб для человека может быть вполне реальным — от травли и шантажа до профессиональных последствий. Поэтому суды смотрят на такие инструменты не как на нейтральную генерацию картинок, а как на механизм, который упрощает производство несанкционированного интимного контента.
Для европейской правовой культуры это особенно чувствительная тема. На уровне продукта претензии к таким функциям обычно сводятся не к одной детали, а к целому набору рисков. Проблема не только в том, что спорный результат можно получить, но и в том, насколько дешево, быстро и массово это делается на практике через обычный интерфейс.
В случае с запретом в Нидерландах особенно важны четыре вопроса, которые неизбежно встают перед любой AI-платформой: можно ли создать изображение реального человека без его согласия; насколько легко потом распространить такой контент; кто отвечает за результат — пользователь, платформа или обе стороны; существуют ли реальные технические барьеры, а не формальные предупреждения в интерфейсе.
Что это меняет
Для xAI решение суда — это сигнал, что спорные возможности моделей теперь будут оценивать не только по общим обещаниям безопасности, но и по конкретному пользовательскому сценарию. Если инструмент позволяет быстро производить вредный контент, одного тезиса о «нейтральной технологии» может уже не хватить. Компаниям придется доказывать, что ограничения встроены в продукт, работают на практике и не обходятся за пару запросов.
Иначе локальные ограничения в одной стране могут стать шаблоном для новых исков, проверок и запретов на других европейских рынках. Для рынка в целом это еще один пример того, как генеративный AI перестает жить по логике «сначала запустим, потом разберемся». Чем ближе модель подходит к телесности, личности и личным данным, тем выше вероятность прямого правового ответа.
Особенно в Европе, где защита достоинства и приватности часто ставится выше продуктовой скорости. Это касается не только xAI: любой разработчик, который добавляет функции на грани сексуализированного, поддельного или унизительного контента, теперь видит более ясный ориентир по тому, где проходит красная линия.
Что это значит
Запрет против xAI показывает, что борьба вокруг AI теперь идет не только на уровне больших законов, но и на уровне отдельных продуктовых функций. Если инструмент делает несанкционированное унижение или эксплуатацию людей слишком простыми, суд может вмешаться точечно и быстро. Для индустрии это плохая новость для серых механик роста и хорошая — для пользователей, чьи права раньше часто догоняли технологию с большим опозданием.