Никто не знает, как AI-компании должны работать с государством
OpenAI стремительно превращается из успешного стартапа в часть инфраструктуры национальной безопасности США, но компания явно не готова к новым обязанностям. Пр

Есть особая ирония в том, что компания, создавшая самую популярную AI-систему в мире, оказалась совершенно не готова к последствиям собственного успеха. OpenAI, начинавшая как некоммерческая исследовательская лаборатория с идеалистической миссией, а затем ставшая одним из самых дорогих стартапов планеты, теперь вступает в третью фазу своей эволюции — превращение в элемент национальной безопасности Соединённых Штатов. И, как справедливо отмечает TechCrunch, у компании нет ни инструментов, ни опыта, ни даже понятной дорожной карты для этой роли.
Проблема, впрочем, значительно глубже, чем трудности одной отдельно взятой корпорации. Ни одна страна мира пока не сформулировала внятную модель того, как государственные институты должны взаимодействовать с частными разработчиками искусственного интеллекта. Исторические аналогии здесь работают плохо. Когда в середине двадцатого века правительство США выстраивало отношения с оборонными подрядчиками вроде Lockheed Martin или Raytheon, речь шла о компаниях, которые изначально создавались для работы с государством, понимали язык бюрократии и были готовы к жёсткому регулированию. AI-лаборатории — совсем другая история. Они выросли из академической среды и венчурной культуры Кремниевой долины, где скорость важнее процедур, а открытость — важнее секретности.
Трансформация OpenAI особенно показательна. Компания Сэма Альтмана за последние два года прошла путь, на который у традиционных технологических гигантов уходили десятилетия. ChatGPT стал самым быстрорастущим потребительским продуктом в истории. Модели серии GPT используются миллионами людей и тысячами компаний по всему миру. Но параллельно с коммерческим успехом нарастало понимание того, что большие языковые модели — это не просто удобный инструмент для написания писем и генерации кода. Это технология с очевидным двойным назначением, способная влиять на информационное пространство, кибербезопасность и, в перспективе, на военный баланс сил.
Американские чиновники это понимают. Разведывательное сообщество США уже экспериментирует с закрытыми версиями языковых моделей для анализа данных. Министерство обороны изучает возможности применения генеративного AI в логистике и планировании. Но каждый такой проект упирается в фундаментальный вопрос: на каких условиях частная компания, ответственная перед своими инвесторами и пользователями, должна предоставлять свои технологии государственным структурам, ответственным перед совсем другими приоритетами? Кто определяет границы допустимого? Кто контролирует, как именно используются модели после передачи?
OpenAI, при всей своей риторике об ответственной разработке AI, до сих пор не продемонстрировала убедительных механизмов управления этими рисками. Внутренние процессы компании остаются непрозрачными. Совет директоров, который теоретически должен обеспечивать баланс между коммерческими интересами и общественным благом, пережил драматический кризис в конце 2023 года и с тех пор был перестроен в значительно более лояльную Альтману конфигурацию. Переход от некоммерческой структуры к коммерческой, который компания завершает в 2025–2026 годах, только усиливает опасения: кто именно будет следить за тем, чтобы технологии, способные изменить расстановку сил в мире, использовались ответственно?
Для России этот сюжет имеет двойное значение. С одной стороны, отсутствие чёткой модели взаимодействия между AI-компаниями и государством — это не уникально американская проблема. Российские разработчики, от Сбера до Яндекса, тоже балансируют между коммерческими задачами и государственными интересами, хотя и в совершенно иной институциональной среде. С другой стороны, то, какую модель в итоге выберут США, неизбежно повлияет на глобальные нормы — точно так же, как американские стандарты интернет-регулирования в своё время задали рамку для всего мира.
Главный парадокс ситуации в том, что время для спокойного проектирования правил уже ушло. Технология развивается быстрее, чем институты успевают адаптироваться. OpenAI уже де-факто является стратегическим активом — вопрос лишь в том, будет ли этот статус оформлен через продуманную систему взаимных обязательств или останется серой зоной, где решения принимаются ad hoc, под давлением обстоятельств. Пока все признаки указывают на второй вариант. И это, пожалуй, самая тревожная новость не только для Америки, но и для всей глобальной AI-индустрии.