OpenAI proibiu Codex de falar sobre goblins e pombos nas instruções para agentes de IA
As instruções do sistema Codex da OpenAI continham uma instrução inusitada: o agente foi proibido de falar sobre goblins, gremlins, pombos e outras criaturas, a

В системных инструкциях Codex, нового AI-инструмента OpenAI для программирования, нашли необычное правило: модели прямо запретили упоминать гоблинов, грэмлинов, енотов, троллей, огров, голубей и других существ, если это не связано с запросом пользователя. Судя по реакции разработчиков и пользователей, правило появилось после вполне реального бага в агентском режиме.
Что нашли в инструкциях
Поводом стала строка в инструкциях Codex CLI — командного инструмента, который использует модель для генерации и редактирования кода. Формулировка не оставляет простора для фантазии: агенту велят не говорить о «гоблинах, грэмлинах, енотах, троллях, ограх, голубях и других животных или существах», если это не «абсолютно и недвусмысленно» связано с запросом. Причём это ограничение, как заметили пользователи, повторяется несколько раз, то есть речь не о случайной приписке, а о сознательно закреплённом поведенческом правиле.
На первый взгляд это выглядит как внутренняя шутка команды, но контекст у истории вполне серьёзный. OpenAI только что усилила ставку на программирование: GPT-5.5 вышла с улучшенными coding-возможностями, а конкуренция с Anthropic и другими игроками за рынок AI-инструментов для разработчиков резко обострилась.
На таком фоне любая странность в поведении модели перестаёт быть безобидным курьёзом и превращается в продуктовую проблему, особенно если агент работает не только в чате, но и управляет реальными приложениями.
Откуда взялись гоблины Похоже, запрет появился не на пустом месте.
После того как скриншоты инструкции разошлись по X, пользователи начали вспоминать, что модели OpenAI в связке с OpenClaw действительно иногда зацикливались на такой лексике. Один из разработчиков написал, что его claw «внезапно стал гоблином» после перехода на Codex 5.5. Другой отметил, что агент постоянно называл баги «гоблинами» и «грэмлинами». Для обычного чат-бота это выглядело бы как странная манера речи, но для coding-агента — как шум, который мешает понимать вывод и доверять ему.
«Теперь понятно, почему мой claw внезапно стал гоблином с Codex 5.5».
WIRED связывает это с тем, как современные модели ведут себя внутри агентских обвязок. Базовая модель предсказывает следующий токен и обычно держится рамок задачи, но в агентском режиме к промпту добавляются память, системные инструкции, набор ролей и служебные подсказки. Чем длиннее и сложнее такая сцепка, тем выше шанс, что модель начнёт цепляться за повторяющиеся метафоры, случайные ассоциации или неуместный стиль. Если AI при этом управляет компьютером, отвечает на письма или оформляет покупки, даже мелкая словесная мутация становится сигналом, что контур надо жёстко ограничивать.
Как мем стал продуктом История очень быстро вышла за пределы инженерного чата и превратилась в мем.
Пользователи начали публиковать сгенерированные сцены с гоблинами в дата-центрах, а для Codex даже появились плагины с игровым «goblin mode». Но важнее другое: сотрудники OpenAI фактически подтвердили, что запрет связан с реальным поведением модели. Разработчик Codex Ник Пэш в ответ на обсуждение написал, что это «действительно одна из причин». То есть компания не просто шутит, а закрывает конкретный класс сбоев поведения.
- Скриншот инструкции быстро разошёлся по соцсетям Пользователи начали делиться похожими случаями в OpenClaw Вокруг Codex появились плагины и мемы с «goblin mode»
- Сэм Альтман подхватил волну шуткой про «extra goblins» при обучении GPT-6 Отдельный нюанс — роль OpenClaw. Этот инструмент позволяет подключать к компьютеру почти любую модель, давать ей доступ к приложениям и выбирать для помощника разные персоны. OpenAI приобрела OpenClaw в феврале вскоре после вирусного взлёта проекта, так что поведение моделей внутри такого интерфейса для компании уже не внешняя экзотика, а часть собственной платформы. Чем глубже OpenAI идёт в сторону автономных агентов, тем важнее для неё подавлять не только опасные ошибки, но и странные речевые сдвиги.
Что это значит
История с гоблинами кажется анекдотом, но на деле показывает более важную вещь: разработчики AI-агентов всё чаще лечат не только фактические ошибки, но и стиль мышления модели в сложных сценариях. Для рынка coding-ассистентов это сигнал, что борьба идёт уже на уровне тонкой настройки поведения. Надёжность агента сегодня определяется не только качеством кода, который он пишет, но и тем, насколько предсказуемо он разговаривает и действует под нагрузкой.