A OpenAI lançou o Daybreak, uma nova iniciativa de cibersegurança que combina recursos de modelos de inteligência artificial de fronteira com o Codex Security para ajudar organizações a identificar e corrigir vulnerabilidades antes que atacantes explorem as mesmas falhas.
“Daybreak combina a inteligência dos modelos da OpenAI, a extensibilidade do Codex como uma estrutura agêntica e parceiros ao longo de todo o ciclo de segurança para ajudar a tornar o mundo mais seguro para todos”, afirmou a empresa.
“Defensores podem levar revisão segura de código, modelagem de ameaças, validação de patch, análise de risco de dependências, detecção e orientação de remediação para o fluxo diário de desenvolvimento, tornando o software mais resiliente desde o início.”
Assim como o Mythos, da Anthropic, a proposta é usar IA para inclinar a balança em favor dos defensores e ajudar a detectar e tratar problemas de segurança antes que sejam descobertos por agentes mal-intencionados.
Por enquanto, o acesso às ferramentas continua sob forte controle, e a OpenAI orienta organizações interessadas a solicitar uma varredura de vulnerabilidades ou a entrar em contato com sua equipe de vendas.
O Daybreak usa o Codex Security para criar um modelo de ameaças editável para um repositório específico, com foco em caminhos de ataque realistas e em trechos de código de maior impacto, identificar e testar vulnerabilidades em um ambiente isolado e propor correções.
A iniciativa se baseia em três modelos: GPT-5.5, com proteções padrão para uso geral; GPT-5.5 com Trusted Access for Cyber, voltado para trabalho defensivo verificado em ambientes autorizados; e GPT-5.5-Cyber, um modelo mais permissivo para red team, testes de invasão e validação controlada.
Segundo a OpenAI, grandes empresas como Akamai, Cisco, Cloudflare, CrowdStrike, Fortinet, Oracle, Palo Alto Networks e Zscaler já estão integrando esses recursos no âmbito do programa Trusted Access for Cyber.
A empresa acrescentou que trabalha com parceiros da indústria e do governo para lançar, no futuro, “modelos com ainda mais capacidade para cibersegurança”.
O lançamento ocorre em um momento em que ferramentas de IA reduziram drasticamente o tempo necessário para descobrir falhas de segurança latentes, que antes poderiam passar despercebidas.
O que antes exigia muito tempo e esforço agora pode ser feito em um período muito menor.
Como consequência, o processo de correção tem dificuldade para acompanhar esse ritmo, mesmo em condições ideais.
No início de março, a HackerOne suspendeu seu programa de bug bounty, citando uma mudança no equilíbrio entre a descoberta de vulnerabilidades e a capacidade de mantenedores de projetos open source de corrigi-las.
A empresa atribuiu essa pressão ao avanço da pesquisa assistida por IA, que elevou tanto o volume de novas falhas quanto a velocidade com que elas são identificadas.
Esse cenário também alimentou o que é chamado de fadiga de triagem, quando mantenedores de projetos precisam analisar uma enxurrada de relatórios de vulnerabilidade, alguns deles plausíveis à primeira vista, mas completamente inventados pelos modelos de IA.
À medida que a IA reduz a barreira para encontrar falhas de segurança, empresas como Anthropic, Google e OpenAI passaram a posicionar agentes de segurança baseados em IA como uma nova camada operacional para enfrentar o gargalo de remediação e proteger a infraestrutura digital contra possíveis explorações.
Em uma publicação divulgada na semana passada, o pesquisador de segurança Himanshu Anand afirmou que “a política de divulgação em 90 dias está morta”, porque os grandes modelos de linguagem estão comprimindo os prazos de divulgação e de exploit para perto de zero.
“Quando 10 pesquisadores sem relação entre si encontram o mesmo bug em seis semanas, e a IA consegue transformar um diff de patch em um exploit funcional em 30 minutos, o que exatamente a janela de 90 dias está protegendo? Ninguém”, disse Anand.
Publicidade
Conheça a Solyd One, e tenha acesso a todos os cursos de segurança ofensiva da Solyd, todas as certificações práticas, incluindo a SYCP, 2 CTFs anuais com prêmios de até 30 mil reais, dezenas de laboratórios realísticos, suporte, comunidade e muito mais. Saiba mais...