TechCrunch→ оригинал

OpenAI Publie le Child Safety Blueprint pour Protéger les Enfants de l'Exploitation Sexuelle Alimentée par l'IA

OpenAI a présenté le Child Safety Blueprint — un plan décrivant comment l'entreprise combat l'utilisation de modèles d'IA pour générer des matériels d'exploitat

OpenAI Publie le Child Safety Blueprint pour Protéger les Enfants de l'Exploitation Sexuelle Alimentée par l'IA
Источник: TechCrunch. Коллаж: Hamidun News.

OpenAI опубликовала новый документ под названием Child Safety Blueprint — план детской безопасности, в котором компания фиксирует свой подход к предотвращению использования генеративного ИИ для создания и распространения материалов сексуальной эксплуатации детей. Документ вышел на фоне нарастающего давления со стороны регуляторов, правозащитных организаций и общественности. Проблема приобрела принципиально новые масштабы с распространением генеративного ИИ.

Если раньше производство CSAM (материалов сексуальной эксплуатации детей) требовало контакта с реальными жертвами, то теперь злоумышленники могут создавать реалистичные синтетические изображения и видео, не соприкасаясь ни с одним ребёнком физически. По данным Национального центра по делам пропавших и эксплуатируемых детей (NCMEC), количество обращений, связанных с ИИ-генерацией подобного контента, за последние два года выросло многократно. OpenAI описывает четыре ключевых направления работы.

Первое — предотвращение на уровне модели: системы обучены отклонять запросы, которые могут привести к генерации вредоносного контента, а модели тестируются на устойчивость к «джейлбрейкам» — обходным техникам, позволяющим нарушить ограничения. Второе — реагирование и отчётность: компания использует хеш-базы данных NCMEC и Technology Coalition для автоматической блокировки передачи известных материалов и регулярно направляет отчёты в правоохранительные органы. Третье — партнёрство с организациями, занимающимися защитой детей на практике.

Четвёртое — исследования новых типов атак и уязвимостей по мере развития технологий. Особую сложность представляет проблема синтетических жертв — детей, которых не существует в реальности, но реалистичные изображения которых создаются ИИ. Правовое регулирование остаётся неоднородным: в одних юрисдикциях синтетический CSAM полностью приравнивается к материалам реальных жертв, в других находится в правовой серой зоне.

Позиция OpenAI однозначна: весь подобный контент должен квалифицироваться как CSAM вне зависимости от способа создания. Реакция отрасли неоднозначна. Часть экспертов воспринимает документ как важный шаг к прозрачности и стандартизации.

Другие критики указывают, что разрыв между декларируемыми обязательствами и реальной эффективностью защитных систем может быть значительным — несколько исследовательских групп уже зафиксировали случаи, когда модели удавалось обойти через многошаговые диалоги. Насколько устойчива защита OpenAI к подобным атакам, покажет практика. Параллельно отрасль обсуждает единые стандарты.

Technology Coalition, объединяющая Amazon, Apple, Google, Meta, Microsoft и ряд других компаний, ведёт разработку универсального фреймворка безопасности для разработчиков генеративного ИИ. Скорость консолидации отрасли, однако, по-прежнему уступает скорости появления новых угроз. Публикация плана детской безопасности — сигнал о том, что защита несовершеннолетних становится обязательным элементом корпоративной повестки ИИ-компаний, наравне с конфиденциальностью данных и противодействием дезинформации.

Компании, не выработавшие собственных стандартов — добровольно или под давлением регуляторов — рискуют столкнуться с законодательными ограничениями и серьёзными репутационными потерями.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…