Bloomberg Tech→ оригинал

Ирландия расследует создание сексуализированных изображений нейросетью Grok в соцсети X

Комиссия по защите данных Ирландии (DPC) инициировала официальное расследование в отношении платформы X. Регуляторы обеспокоены тем, что нейросеть Grok позволяе

Ирландия расследует создание сексуализированных изображений нейросетью Grok в соцсети X
Источник: Bloomberg Tech. Коллаж: Hamidun News.

Ирландия расследует создание сексуализированных изображений нейросетью Grok в соцсети X

Комиссия по защите данных Ирландии (DPC), выступающая в качестве основного регулятора конфиденциальности данных в Европейском союзе, инициировала официальное расследование в отношении платформы X (ранее известной как Twitter). Поводом для пристального внимания со стороны надзорного органа стали опасения, связанные с возможностью использования нейросети Grok, интегрированной в социальную сеть, для создания и распространения сексуализированных изображений. Регуляторы обеспокоены тем, что Grok, по всей видимости, способен обходить стандартные фильтры безопасности, что ставит под угрозу соблюдение европейских законов о защите данных и вопросы ответственности разработчиков искусственного интеллекта.

Ситуация вокруг Grok и платформы X приобретает особое значение на фоне растущего влияния генеративного искусственного интеллекта на цифровую среду. Нейросети, способные создавать текст, изображения и другой контент по запросу пользователя, открывают новые возможности, но одновременно порождают серьезные этические и правовые вызовы. В данном случае, проблема заключается в том, что инструмент, призванный расширять возможности пользователей, может быть использован для генерации контента, нарушающего общепринятые нормы и законодательство, в частности, касающееся защиты несовершеннолетних и предотвращения распространения неприемлемых материалов. Ирландская DPC, действуя в рамках Общего регламента по защите данных (GDPR) Европейского союза, стремится выяснить, были ли предприняты достаточные меры для предотвращения подобных злоупотреблений.

В центре внимания ирландского регулятора находятся алгоритмы модерации контента, используемые X, и то, насколько эффективно они способны противостоять генерации и распространению вредоносного или неприемлемого контента через Grok. Особое беспокойство вызывает тот факт, что, несмотря на заявленные меры безопасности, пользователям, по сообщениям, удалось обойти ограничения и создавать изображения откровенного характера. Расследование будет направлено на установление того, как именно были разработаны и внедрены механизмы безопасности Grok, какие уязвимости существуют, и какие шаги предпринимаются X для устранения этих проблем. Если нарушения подтвердятся, последствия для компании могут быть весьма существенными. Европейское законодательство предусматривает значительные штрафы за несоблюдение правил защиты данных, которые могут достигать до 4% от годового мирового оборота компании.

Последствия этого расследования могут выйти далеко за рамки конкретного случая с X и Grok. Дело может стать важным прецедентом в формировании правового поля для регулирования генеративного искусственного интеллекта в Европе и за ее пределами. Успех DPC в установлении ответственности X может побудить другие регуляторные органы более активно вмешиваться в деятельность технологических компаний, использующих ИИ. Это также может привести к ужесточению требований к разработчикам ИИ в отношении прозрачности алгоритмов, мер безопасности и этических стандартов. Компании, подобные X, будут вынуждены пересмотреть свои подходы к разработке и внедрению ИИ-инструментов, уделяя повышенное внимание предотвращению злоупотреблений и защите пользователей.

В заключение, расследование, инициированное Комиссией по защите данных Ирландии, подчеркивает растущую обеспокоенность общества и регуляторов по поводу рисков, связанных с генеративным искусственным интеллектом. Ситуация с нейросетью Grok на платформе X является ярким примером того, как новые технологии могут создавать непредвиденные вызовы. Результаты этого расследования и возможные последующие меры будут иметь далеко идущие последствия для будущего регулирования ИИ и для того, как технологические гиганты будут нести ответственность за контент, создаваемый их продуктами, на территории Европейского союза.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…