OpenAI Blog→ оригинал

OpenAI released a cybersecurity plan in the AI era for government structures and critical infrastructure

OpenAI released a cybersecurity plan for the AI era. The company wants to give verified defenders—from government structures to critical infrastructure operator

OpenAI released a cybersecurity plan in the AI era for government structures and critical infrastructure
Источник: OpenAI Blog. Коллаж: Hamidun News.

29 апреля 2026 года OpenAI опубликовала план Cybersecurity in the Intelligence Age и предложила не запирать сильные AI-инструменты в узком круге игроков, а быстрее передавать их проверенным защитникам. Логика компании простая: злоумышленники все равно будут использовать ИИ, значит выигрывает не тот, кто дольше держит модели под замком, а тот, кто быстрее усиливает оборону.

Пять опор плана В OpenAI считают, что кибербезопасность входит в новый этап.

Те же модели, которые помогают искать уязвимости, ускорять патчи и автоматизировать защиту, уже используются и в атаке: для фишинга, разведки, разработки вредоносного кода и обхода защитных систем. При этом проблема не только в самих моделях. Цифровая среда и без того перегружена старыми системами, неравномерным обновлением, небезопасным софтом и уязвимостями в open source-зависимостях.

На этом фоне компания собрала ответ в пять направлений: расширить доступ к AI-инструментам для защитников наладить координацию между государством, индустрией и AI-лабораториями усилить защиту самих frontier-моделей и чувствительных знаний вокруг них сохранить видимость и контроль над тем, как такие модели разворачиваются и используются * дать обычным пользователям инструменты для личной цифровой защиты Ключевая идея OpenAI - не полная открытость и не жесткое сдерживание, а «контролируемое ускорение». Компания прямо пишет, что продвинутые модели для киберзадач почти наверняка со временем распространятся шире, поэтому вопрос уже не в том, появятся ли они у разных игроков, а в том, успеют ли демократические институты превратить текущее технологическое преимущество в устойчивое преимущество обороны. Иначе защитники будут догонять рынок атакующих, а не опережать его.

Кому дадут доступ Главный механизм в плане называется Trusted Access for Cyber, или TAC.

Это программа ступенчатого доступа к более мощным и более «разрешительным» моделям для легитимной защитной работы. Уровень доступа будет зависеть от доверия к пользователю, его задачи и масштаба оборонительного эффекта. Иными словами, чем мощнее и чувствительнее инструмент, тем жестче проверка, требования к безопасности, мониторинг и условия использования.

Цель - убрать лишнее трение для защитной работы, но не открыть дорогу разрушительным сценариям. Сначала OpenAI хочет масштабировать TAC на несколько групп. В приоритете защитники в федеральных, региональных и местных госструктурах, а также крупные игроки, которые могут защищать тысячи и миллионы конечных пользователей: security-платформы, hyperscaler-провайдеры, инфраструктурные компании, защитники цепочек поставок ПО и операторы критической инфраструктуры.

Отдельно компания выделяет финансовый сектор как одну из главных целей для сложных атак. Для небольших больниц, школьных округов, водоканалов, муниципалитетов и локальных операторов предлагается доступ через доверенных посредников - MSSP, отраслевые организации, крупных вендоров и программы при поддержке CISA. Позже такой контур хотят расширять и на союзников США.

«Кибербезопасность - это командная работа».

Открыть доступ недостаточно, если у рынка нет общего контура обмена угрозами. Поэтому второй блок плана посвящен координации между государством, индустрией и AI-лабораториями: общей модели угроз, быстрому обмену оперативной разведданной об атаках, выбору самых важных секторов и сценариев применения, а также использованию действующих госканалов для реагирования. OpenAI отдельно подчеркивает, что ни одна лаборатория не видит полную картину злоупотреблений, поэтому координация между лабораториями становится не дополнением, а обязательной частью обороны.

Как усилят защиту

Третий и четвертый блоки плана касаются уже самой OpenAI и правил разворачивания таких систем. Компания обещает жестче защищать модели, веса, чувствительные окружения и внутренние знания от утечек, кражи, несанкционированного копирования и дистилляции. В списке мер - более жесткий контроль доступа, сегментация чувствительных сред, расширенный мониторинг, защита цепочек поставок ПО и железа, а также усиление контроля за привилегированным доступом и инсайдерскими рисками.

Для проверки своей стойкости OpenAI собирается активнее привлекать внешние команды и напоминает о расширенном партнерстве с Microsoft по коллективной защите. На уровне deployment компания делает ставку на риск-ориентированную модель. Для обычных пользователей сохраняются базовые защитные меры: ограничения поведения моделей и автоматические системные проверки.

Для доверенных пользователей с миссионно важными задачами доступ будет многоуровневым: с верификацией личности, юридическими подтверждениями, базовыми обязательствами по безопасности, отчетностью о злоупотреблениях и дополнительным мониторингом. Если риск вырастет, OpenAI оставляет за собой право быстро ужесточать блокировки, снижать лимиты, требовать повторную аутентификацию, понижать уровень доступа или полностью его отзывать. Пятый блок касается массового пользователя.

По данным компании, пользователи ChatGPT уже отправляют более 15 миллионов сообщений в месяц с просьбой проверить, не является ли что-то мошенничеством. OpenAI хочет развивать этот сценарий дальше: помогать людям распознавать подозрительные сообщения, настраивать более сильные пароли и MFA, реагировать на взломы и быстрее восстанавливаться после мошенничества или компрометации аккаунта. В ближайшие дни компания также обещает новые функции безопасности для аккаунтов ChatGPT, чтобы сделать базовую цифровую гигиену проще и доступнее.

Что это значит

OpenAI публично заняла позицию за выборочное расширение доступа, а не за модель, где сильные киберинструменты остаются у нескольких избранных организаций. Если этот подход сработает, AI-защита станет не нишевым сервисом для экспертов, а инфраструктурным слоем для государства, облаков, разработчиков и обычных пользователей. Если нет, спор о том, кому можно доверять frontier-модели и на каких условиях, только обострится.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…