OpenAI тихо переписала свою миссию: «благо человечества» и безопасность исчезли
OpenAI без лишнего шума переписала свою корпоративную миссию. Из формулировки исчезли ключевые фразы о «пользе для всего человечества» и приверженности безопасн

Когда компания, создающая самые мощные системы искусственного интеллекта на планете, тихо вычёркивает из своей миссии слова о безопасности и благе человечества, это не редакторская правка. Это манифест.
OpenAI обновила формулировку своей корпоративной миссии, и внимательные наблюдатели — в первую очередь китайское издание Jiqizhixin (机器之心) — заметили, что из текста исчезли два ключевых элемента. Во-первых, пропало знаменитое обещание создавать искусственный общий интеллект (AGI) «на благо всего человечества» — benefit all of humanity. Во-вторых, из миссии убрали прямые упоминания приверженности безопасности, которые с момента основания компании в 2015 году были её визитной карточкой. Изменения были внесены без пресс-релиза, без публичного объяснения — просто новый текст на сайте вместо старого.
Чтобы понять масштаб этого сдвига, нужно вспомнить, откуда OpenAI вообще взялась. Компанию основали Сэм Альтман, Илон Маск и группа исследователей как некоммерческую организацию с радикально альтруистической целью: гарантировать, что сверхмощный ИИ будет служить всем людям, а не горстке корпораций. Безопасность стояла в центре всего — OpenAI позиционировала себя как противовес гонке вооружений в области ИИ, как организацию, которая скорее откажется от прибыли, чем выпустит опасную технологию. Эта миссия привлекала лучших исследователей мира, обеспечивала компании моральный авторитет и, что немаловажно, общественное доверие.
Но за последние два года OpenAI прошла путь, который многие критики называют метаморфозой. Компания фактически перестала быть некоммерческой — сначала появилась «ограниченно коммерческая» структура, затем начались разговоры о полной реорганизации в коммерческую корпорацию. Оценка компании взлетела до сотен миллиардов долларов. Из OpenAI ушли ключевые фигуры, отвечавшие за безопасность: Илья Суцкевер, сооснователь и главный учёный, покинул компанию после драматического конфликта вокруг увольнения и возвращения Альтмана. Ян Лейке, руководивший командой Superalignment — специальным подразделением по обеспечению безопасности сверхразумного ИИ — ушёл в Anthropic, публично заявив, что в OpenAI «культура безопасности уступила место культуре продукта». Команда Superalignment была фактически расформирована.
На этом фоне тихое редактирование миссии выглядит не как случайность, а как формализация того, что уже произошло на практике. OpenAI сегодня — это компания, которая выпускает продукты с головокружительной скоростью, конкурирует с Google, Anthropic и Meta за долю рынка, привлекает инвестиции на условиях, немыслимых для некоммерческой организации, и всё меньше напоминает исследовательскую лабораторию, озабоченную судьбой человечества.
Сторонники компании могут возразить, что миссия — это просто слова, а реальная работа по безопасности продолжается внутри. И действительно, OpenAI по-прежнему публикует отчёты о тестировании моделей, проводит red-teaming и формально следует протоколам безопасности. Но слова в миссии — это не просто слова. Это публичное обязательство, юридический и культурный ориентир, на который опираются сотрудники, регуляторы и общество. Когда компания убирает из своей миссии безопасность, она посылает сигнал — и внутрь, и наружу — о том, что приоритеты сместились.
Для индустрии это тревожный прецедент. OpenAI долго была моральным компасом — пусть несовершенным, пусть противоречивым, но компасом. Если даже она отказывается от языка ответственности, что говорить об остальных? Anthropic, которая строит свою идентичность на безопасности, может выиграть в краткосрочной перспективе, привлекая разочарованных исследователей и партнёров. Но в долгосрочной перспективе ослабление нормы безопасности у лидера рынка снижает планку для всех.
Регуляторы тоже не могут игнорировать этот сигнал. В Европе AI Act уже вступает в силу, в США администрация колеблется между поддержкой инноваций и контролем рисков, Китай выстраивает собственную систему регулирования. Когда крупнейший разработчик ИИ в мире демонстрирует, что безопасность — это переменная, а не константа, аргументы в пользу жёсткого внешнего регулирования становятся значительно сильнее.
В конечном счёте, история OpenAI — это история о том, как благие намерения сталкиваются с реальностью венчурного капитала, рыночной конкуренции и человеческих амбиций. Компания, созданная для того, чтобы спасти человечество от опасного ИИ, всё больше становится тем самым игроком, от которого она обещала нас защитить. И тихое исчезновение слов о безопасности из миссии — это не начало этой трансформации. Это её официальное признание.