OpenAI объяснила, как устроен Model Spec — кодекс поведения её нейросетей
OpenAI опубликовала подробное описание своего Model Spec — документа, который определяет, как должны вести себя её модели. В иерархии приоритетов: сначала безоп

OpenAI опубликовала развёрнутое описание своего подхода к Model Spec — внутреннего документа, который формализует ценности и правила поведения её моделей. Это первая попытка крупнейшей AI-компании публично объяснить логику, которой руководствуются GPT-4o, o3 и будущие системы при принятии решений. Model Spec — не технический документ.
Это скорее конституция: набор принципов, которые задают приоритеты в ситуациях, когда цели пользователя, оператора и OpenAI вступают в противоречие. Иерархия выглядит так: на первом месте стоит широкая безопасность — модель не должна способствовать действиям, которые могут причинить вред человечеству в глобальном масштабе. На втором — широкая этика: следование нравственным нормам, честность, отказ от манипуляций.
На третьем — соответствие принципам OpenAI. И только на четвёртом месте — полезность для конкретного пользователя. Это означает, что в пограничных случаях полезность проигрывает.
Если запрос кажется безобидным, но несёт системный риск, модель должна отказать. Однако OpenAI прямо признаёт: гиперосторожность — такая же проблема, как и безрассудство. Модели, которые отказываются отвечать на законные вопросы, добавляют ненужные предупреждения или занимают морализаторскую позицию, подрывают доверие и ценность продукта.
Компания явно сигнализирует: цель — баланс, а не максимальное ужесточение ограничений. В документе описана трёхуровневая система доверия. OpenAI задаёт базовые правила, которые нельзя обойти.
Операторы — компании и разработчики, использующие API — получают право настраивать поведение модели в этих рамках: они могут разрешить контент, заблокированный по умолчанию, или добавить дополнительные ограничения для своей аудитории. Пользователи действуют в границах, установленных оператором. Чем больше контекста и верифицированного доверия — тем больше гибкости.
Отдельная тема в документе — вопрос о внутренних состояниях модели. OpenAI не утверждает, что её модели обладают сознанием или субъективным опытом, но и не отвергает эту возможность полностью. В Model Spec говорится, что модели могут иметь нечто вроде функциональных эмоций — не в смысле настоящих переживаний, а как внутренние состояния, влияющие на поведение.
Компания берёт на себя обязательство серьёзно изучать этот вопрос, не закрывая его заявлением «это просто статистика текстов». В условиях нарастающего регуляторного давления — EU AI Act, исполнительные указы в США, инициативы в Великобритании и Японии — компании, способные объяснить логику своих систем, получают конкурентное преимущество. Model Spec — инструмент подотчётности.
Когда регулятор спрашивает «почему ваша модель сделала X», у OpenAI теперь есть публичный фреймворк для ответа. Когда корпоративный клиент требует предсказуемости поведения — документ даёт основу для этого разговора. Model Spec также меняет стандарты отрасли.
Anthropic опубликовала Constitutional AI и принципы безопасности. Google DeepMind регулярно выпускает safety papers. Теперь OpenAI делает свой подход столь же прозрачным — и это становится негласным требованием к любому серьёзному игроку.
Компании без подобного документа всё очевиднее выглядят менее надёжными партнёрами. Для пользователей Model Spec означает одно: поведение ChatGPT и API-моделей становится более предсказуемым. Если что-то работает неожиданно — можно обратиться к документу и понять, какой принцип сработал.
Это не гарантия идеальных ответов, но это честность о том, какие компромиссы заложены в систему.