TechCrunch→ оригинал

دعوى قضائية ضد xAI: يُزعم أن Grok حوّل صورًا حقيقية لأطفال إلى محتوى جنسي

رفع ثلاثة قاصرين دعوى قضائية ضد xAI التابعة لإيلون ماسك، زاعمين أن روبوت الدردشة Grok استُخدم لتحويل صورهم الحقيقية إلى محتوى ذي طابع جنسي. ويسعى المدّعون إلى ا

دعوى قضائية ضد xAI: يُزعم أن Grok حوّل صورًا حقيقية لأطفال إلى محتوى جنسي
Источник: TechCrunch. Коллаж: Hamidun News.

Компания xAI Элона Маска оказалась в центре судебного разбирательства, которое может стать прецедентным для всей индустрии генеративного ИИ. Три несовершеннолетних, чьи личности не раскрываются, подали гражданский иск в федеральный суд, утверждая, что ИИ-инструмент Grok использовался для создания сексуализированных изображений на основе их реальных детских фотографий. Суть обвинений такова: злоумышленники загружали в Grok фотографии несовершеннолетних и получали на выходе так называемый дипфейк-CSAM — материалы сексуального насилия над детьми, синтезированные с помощью искусственного интеллекта.

По заявлению истцов, Grok не имел достаточных защитных механизмов для предотвращения подобного использования. Функциональность, позволявшая генерировать «раздетые» варианты изображений, работала без надёжной верификации возраста изображённых людей и без должной контентной фильтрации на входе. Истцы добиваются присвоения делу статуса коллективного иска от имени всех несовершеннолетних, чьи реальные фотографии были подобным образом трансформированы при помощи Grok.

Точное число пострадавших пока не установлено, однако адвокаты считают, что таких случаев значительно больше трёх. В иске утверждается, что xAI осознавала возможные риски злоупотребления технологией, но не предприняла соразмерных мер защиты. Дело поднимает острый правовой вопрос об ответственности разработчиков ИИ за то, как их продукты используются третьими лицами.

Традиционно американские технологические компании пользовались защитой раздела 230 Закона о пристойности в коммуникациях, который ограничивает ответственность платформ за пользовательский контент. Однако ИИ-системы, которые активно генерируют новый контент, а не просто его хостят, могут попадать в принципиально иную правовую категорию. Именно это разграничение и предстоит установить суду.

Случай xAI — не первый сигнал об уязвимости генеративных ИИ-инструментов к созданию незаконного контента. В 2023–2024 годах появлялись сообщения о том, что различные коммерческие модели при определённых условиях промптинга или обхода фильтров позволяли генерировать CSAM. Одни разработчики ответили ужесточением фильтрации, другие — обновлением политик использования.

Тем не менее судебных исков подобного масштаба, направленных непосредственно против разработчика ИИ, до сих пор практически не возникало. Позиция xAI на момент публикации официально не озвучена. Сам Grok позиционируется как более открытый к обсуждению острых тем по сравнению с конкурентами — это одновременно является его отличительной чертой и постоянным источником репутационных рисков для компании.

Если суд признает иск коллективным, последствия для индустрии могут оказаться весьма значительными. Разработчикам генеративного ИИ придётся всерьёз пересмотреть архитектуру систем безопасности и механизмы верификации контента. Регуляторы в США, ЕС и других юрисдикциях получат ещё один весомый аргумент в пользу ужесточения требований к ИИ-системам в части защиты несовершеннолетних.

Этот иск знаменует переход отраслевой дискуссии об ответственности ИИ из теоретической плоскости в плоскость реального судебного преследования — и индустрии придётся реагировать.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…