The Verge→ оригинал

OpenAI lançou Daybreak para a busca automática de vulnerabilidades em código

A OpenAI lançou Daybreak para a busca e a correção automáticas de vulnerabilidades em código. O sistema analisa o código da empresa, constrói um modelo de possí

OpenAI lançou Daybreak para a busca automática de vulnerabilidades em código
Fonte: The Verge. Коллаж: Hamidun News.
◐ Слушать статью

OpenAI lançou Daybreak — uma iniciativa para detecção e correção automática de vulnerabilidades no código antes de ataques de hackers. Esta é uma resposta direta ao Claude Mythos da Anthropic, que recentemente apresentou sua IA focada em segurança.

Como o

Daybreak Funciona Daybreak utiliza o agente de IA Codex Security, que a OpenAI lançou em março deste ano. O agente analisa o código-fonte da organização e cria um modelo de ameaças — uma análise detalhada dos possíveis caminhos de ataque que hackers poderiam explorar ao tentar infiltração ou obtenção de acesso não autorizado. A característica-chave do sistema é que ele não apenas identifica bugs através de varredura como ferramentas SAST, mas então valida o seu perigo real: verifica se a vulnerabilidade identificada pode realmente ser explorada nas condições do mundo real de uma aplicação e infraestrutura específicas.

Isso reduz drasticamente a quantidade de falsos positivos, que tipicamente frustram os engenheiros. Após a validação, Daybreak automatiza a detecção das classes mais críticas de vulnerabilidades e ajuda os engenheiros a priorizar correções com base no nível de risco e probabilidade de exploração.

O que está

Incluído no Daybreak Análise completa do código-fonte e arquitetura da aplicação Construção de modelos de ameaças baseados em caminhos típicos de exploração Validação de vulnerabilidades identificadas contra critérios de exploração do mundo real Detecção automática de problemas críticos, altos e médios riscos * Integração no pipeline de desenvolvimento CI/CD ## Competição Entre OpenAI e Anthropic O lançamento do Daybreak coincide com o surgimento do Claude Mythos da Anthropic — um modelo de IA focado em segurança que seus criadores consideram muito perigoso para lançamento público e demonstração pública. A Anthropic optou por não liberar o modelo para acesso aberto e APIs públicas, mas em vez disso o compartilhou apenas com parceiros selecionados como parte de sua própria iniciativa Project Glasswing. Este é um momento significativo na história da segurança de IA.

Ambas as principais empresas de IA investiram quase simultaneamente em soluções e frameworks focados em segurança. Isso sinaliza que a cibersegurança corporativa está se tornando um mercado estratégico-chave para as empresas de IA. Ambos os lados entendem a realidade: as empresas precisam urgentemente de ferramentas que identifiquem vulnerabilidades antes que os hackers as encontrem.

A diferença nas estratégias é notável: OpenAI está seguindo um produto totalmente público com acesso para todos os assinantes Pro, enquanto Anthropic escolheu um modelo mais conservador com acesso limitado e parcerias profundas apenas com grandes clientes corporativos.

O que

Isso Significa Para desenvolvedores e equipes de TI nas empresas, isso representa mudanças fundamentais no ciclo de desenvolvimento. Em vez de esperar por revisão de código humana ou execução de testes de penetração caros antes do lançamento em produção, os engenheiros poderão usar um agente de IA para detecção antecipada de vulnerabilidades críticas durante a codificação. Isso deve reduzir drasticamente a probabilidade de ataques bem-sucedidos após o lançamento e economizar custos em resposta a incidentes. Para a OpenAI e Anthropic, este é mais um passo na migração de modelos de IA de laboratórios de pesquisa para negócios práticos, onde o dinheiro é real e as apostas são altas.

ЖХ
Hamidun News
AI‑новости без шума. Ежедневный редакторский отбор из 400+ источников. Продукт Жемала Хамидуна, Head of AI в Alpina Digital.
O que você acha?
Carregando comentários…