OpenAI запустила Daybreak для автоматического поиска уязвимостей в коде
OpenAI запустила Daybreak для автоматического поиска и исправления уязвимостей в коде. Система анализирует код компании, строит модель возможных атак и автомати

OpenAI запустила Daybreak — инициативу для автоматического поиска и исправления уязвимостей в коде перед атаками хакеров. Это прямой ответ на Claude Mythos от Anthropic, которая недавно представила свой security-ориентированный AI.
Как работает
Daybreak Daybreak использует AI-агент Codex Security, который OpenAI запустила ещё в марте этого года. Агент анализирует исходный код организации и создаёт угроз-модель — детальный анализ возможных путей атак, которыми хакеры могли бы воспользоваться при попытке инфильтрации или получения несанкционированного доступа. Ключевая фишка системы в том, что она не просто идентифицирует баги через сканирование вроде SAST-инструментов, а затем валидирует их реальную опасность: проверяет, действительно ли выявленная уязвимость может быть эксплуатирована в реальных условиях конкретного приложения и инфраструктуры. Это резко снижает количество ложных срабатываний, которые обычно портят жизнь инженерам. После валидации Daybreak автоматизирует детектирование наиболее критических классов уязвимостей и помогает инженерам расставить приоритеты исправлений на основе уровня риска и вероятности эксплуатации.
Что входит в
Daybreak Полный анализ исходного кода и архитектуры приложения Построение моделей угроз на основе типичных путей эксплуатации Валидация выявленных уязвимостей по критериям реальной эксплуатации Автоматическое выявление проблем критического, высокого и среднего риска * Интеграция в CI/CD pipeline разработки ## Конкуренция между OpenAI и Anthropic Запуск Daybreak совпадает с появлением Claude Mythos от Anthropic — security-focused AI-модели, которую её создатели считают слишком опасной для публичного релиза и публичной демонстрации. Anthropic предпочла не выпускать модель в открытый доступ и открытые API, а поделиться ею только с избранными партнёрами в рамках собственной инициативы Project Glasswing. Это знаковый момент в истории AI-безопасности.
Обе крупнейшие AI-компании почти одновременно вложились в security-ориентированные решения и фреймворки. Это сигнализирует о том, что корпоративная кибербезопасность становится ключевым стратегическим рынком для AI-фирм. Обе стороны понимают реальность: компаниям срочно нужны инструменты, которые выявляют уязвимости раньше, чем их обнаружат хакеры.
Различие в стратегиях заметно: OpenAI идёт путём полностью публичного продукта с доступом для всех Pro-подписчиков, тогда как Anthropic выбрала более консервативную модель с ограниченным доступом и глубоким партнёрством только с крупными корпоративными клиентами.
Что это значит Для разработчиков и IT-команд компаний это кардинальные перемены в цикле разработки.
Вместо того чтобы ждать code review от человека или запуска дорогостоящих pen-тестов перед выпуском продакшена, инженеры смогут использовать AI-агент для раннего выявления критических уязвимостей прямо во время кодирования. Это должно резко снизить вероятность успешных атак после релиза и сэкономить на incident response. Для самих OpenAI и Anthropic это очередной шаг в миграции AI-моделей из исследовательских лабораторий в практический бизнес, где деньги реальные, а ставки высоки.