OpenAI выпустила промпт-политики защиты подростков для разработчиков gpt-oss-safeguard
OpenAI выпустила набор промпт-политик защиты подростков для разработчиков, использующих gpt-oss-safeguard. Инструменты фильтруют возрастно-специфичные риски: ра

OpenAI опубликовала набор готовых политик безопасности на основе промптов, предназначенных для защиты подростков в приложениях, которые строятся на базе модели gpt-oss-safeguard. Инструмент позволяет разработчикам добавлять возрастную модерацию без необходимости писать сложные фильтры с нуля. Подростки — одна из самых активных аудиторий AI-приложений.
Чат-боты, репетиторы, игровые компаньоны, инструменты для учёбы — всё это используют дети и молодёжь от 13 до 17 лет. При этом большинство языковых моделей по умолчанию настроены на взрослого пользователя: они не отличают вопрос тридцатилетнего специалиста от вопроса четырнадцатилетнего школьника. Разрыв между техническими возможностями модели и её реальной аудиторией давно стал проблемой для разработчиков массовых продуктов.
Регуляторы по всему миру обращают на это внимание. В Европейском союзе Закон об ИИ требует особой защиты уязвимых групп пользователей, включая несовершеннолетних. В США продолжаются дебаты о правилах использования AI школьниками.
Компании, разрабатывающие продукты для широкой аудитории, всё чаще сталкиваются с требованием доказать, что их система не может навредить ребёнку — и это требование становится не просто этическим, но и юридическим. gpt-oss-safeguard — открытая модель-страж от OpenAI, предназначенная для проверки входящих и исходящих сообщений в чат-системах. Она анализирует контент на предмет нарушений политики и может блокировать или помечать проблемные запросы до того, как они дойдут до основной модели или пользователя.
Новые политики для подростков реализованы в виде промптов — текстовых инструкций, которые разработчик передаёт модели вместе с запросом. Это позволяет без изменения кодовой базы подключить дополнительный уровень фильтрации, специфичный для возрастной группы. Политики охватывают риски, актуальные именно для подростков: темы самоповреждения, кибербуллинг, провокационный контент сексуального характера, а также ситуации, где AI может неосознанно выступать в роли авторитетного взрослого и оказывать чрезмерное влияние на ещё не сформировавшееся мышление.
Разработчик включает политику в системный промпт своего приложения. Модель-страж проверяет каждое взаимодействие — и входящие запросы от пользователя, и ответы системы — по критериям, адаптированным под возрастную группу. Если контент не проходит фильтр, система может отклонить ответ, переформулировать его или передать ситуацию для ручной модерации.
Ключевое преимущество подхода — гибкость: разработчик не получает чёрный ящик с жёсткими правилами, а работает с настраиваемыми политиками. Это принципиально важно, потому что контекст безопасности для подростков очень разный — образовательная платформа для школьников, игровой чат-компаньон и приложение для ментального здоровья молодёжи требуют разных подходов к модерации. OpenAI выкладывает эти инструменты в открытый доступ, и это часть более широкой стратегии компании.
Публикуя готовые решения для модерации, OpenAI снижает барьер входа для небольших команд, у которых нет ресурсов на разработку собственных систем безопасности. Одновременно это формирует стандарты отрасли: если достаточное число разработчиков примет эти политики, возникнет де-факто норма защиты подростков в AI-приложениях — и способ демонстрировать регуляторам и общественности ответственный подход к разработке. Вопросы возрастной безопасности переходят из категории этических рассуждений в категорию конкретного инструментария.
Разработчики, которые строят продукты для молодёжи, теперь могут опереться на готовые решения от ведущего игрока рынка — вместо того чтобы изобретать собственные фильтры или игнорировать проблему. Для индустрии это движение в правильном направлении.