OpenAI Blog→ оригинал

OpenAI Trusted Access: компания раздает ИИ-оружие «белым» хакерам

OpenAI решила, что прятать мощные модели от специалистов по безопасности — плохая затея. Новый фреймворк Trusted Access for Cyber открывает доступ к самым продв

OpenAI Trusted Access: компания раздает ИИ-оружие «белым» хакерам
Источник: OpenAI Blog. Коллаж: Hamidun News.

Долгое время OpenAI сидела на пороховой бочке. С одной стороны, их модели становились всё умнее, с другой — страх, что GPT-4 или грядущая «пятерка» напишет идеальный вирус, заставлял инженеров закручивать гайки безопасности до предела. Если вы пробовали просить нейросеть найти уязвимость в коде, вы наверняка натыкались на вежливый, но твердый отказ. Компания придерживалась политики безопасности через ограничение, но, кажется, этот подход окончательно изжил себя. Запуск Trusted Access for Cyber — это признание того, что в мире, где у каждого хакера скоро будет своя локальная Llama без цензуры, держать «белых» исследователей на голодном пайке просто опасно.

Контекст здесь предельно ясен. В индустрии кибербезопасности назрел кризис: защитники не поспевают за темпами развития атакующего ИИ. Пока OpenAI тратила ресурсы на то, чтобы ChatGPT не обидел кого-то словом, злоумышленники начали использовать нейросети для генерации фишинга и оптимизации эксплойтов. Исследователи из ведущих университетов и кибер-лабораторий давно жаловались, что жесткие фильтры OpenAI мешают им изучать, как именно ИИ может атаковать инфраструктуру. Без этого понимания невозможно построить адекватную защиту. Trusted Access — это попытка OpenAI возглавить процесс создания цифрового щита, не дожидаясь, пока регуляторы заставят их это сделать.

Что же на самом деле изменилось? Trusted Access — это не просто кнопка в настройках, а элитарный клуб для проверенных специалистов. OpenAI создает фреймворк, в котором верифицированные исследователи получают расширенные права доступа к моделям. Это позволяет им обходить стандартные фильтры и тестировать нейросети в «боевых» условиях: от поиска zero-day уязвимостей до анализа сложных сетевых протоколов. Компания фактически дает профессионалам право провоцировать модель на деструктивные действия, чтобы понять пределы её возможностей. Это переход от тотального запрета к модели управляемого риска, где доверие строится на репутации и жестком мониторинге активности.

Анализируя этот шаг, нельзя не заметить иронию. OpenAI, которая долгое время была главным проповедником закрытости во имя безопасности, теперь вынуждена открываться. Это прямой ответ на успехи Meta и их открытых моделей, которые стали стандартом для многих технических специалистов. Если OpenAI хочет оставаться релевантной в сфере B2B и государственного сектора, ей нужно доказать, что её модели — это не только чат-боты для написания писем, но и мощные инструменты анализа. Trusted Access позволяет компании собирать уникальные данные о том, как её ИИ ведет себя в руках экспертов, что в будущем поможет сделать базовые модели еще устойчивее к взломам.

Последствия для индустрии будут масштабными. Мы входим в эпоху, когда ИИ официально признается технологией двойного назначения — как ядерная энергия или криптография. Решение OpenAI создает прецедент для других игроков, таких как Anthropic и Google. Скорее всего, скоро мы увидим аналогичные «программы доверия» от всех крупных лабораторий. Это превращает кибербезопасность в игру на опережение: кто первым научит ИИ находить дыры в коде — тот, кто хочет их закрыть, или тот, кто хочет ими воспользоваться? OpenAI делает ставку на первых, и это, пожалуй, самый разумный ход в текущей ситуации.

Однако остается открытым вопрос о том, кто именно получит этот «золотой билет». Будет ли доступ открыт только для американских компаний и союзников, или независимые исследователи со всего мира тоже смогут участвовать? Грань между этичным хакером и государственным шпионом иногда бывает очень тонкой. OpenAI берет на себя роль арбитра в этой сложной игре, и любая ошибка — будь то утечка инструментария или использование доступа в корыстных целях — может обернуться катастрофой для репутации компании. Тем не менее, сидеть сложа руки больше нельзя.

Главное: OpenAI признает, что ИИ — это оружие, и лучше контролируемо раздать его союзникам, чем ждать, пока враги соберут свое в гараже. Станет ли это началом новой эры киберзащиты или мы только что увидели, как открыли ящик Пандоры?

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
Загружаем комментарии…