OpenAI lança GPT-5.4-Cyber, expande acesso verificado para milhares de defensores
OpenAI apresentou o GPT-5.4-Cyber na quinta-feira, posicionando o novo modelo como um assistente de propósito específico para trabalhos de segurança defensiva. Diferentemente do padrão GPT-5.4, a variante Cyber relaxa as fronteiras de recusa usuais, permitindo que analistas verificados consultem o modelo sobre pesquisas de vulnerabilidade, análise de exploits e comportamento de malware. Ele também adiciona funcionalidade de engenharia reversa binária, permitindo que os usuários façam upload de executáveis compilados e recebam avaliações detalhadas de possíveis vulnerabilidades.
O modelo é entregue por meio do framework de Acesso Verificado para Cibersegurança (TAC) da empresa, um sistema de identidade e confiança lançado em fevereiro ao lado de um fundo de subvenção de $10 milhões. O TAC controla o acesso a modelos mais capazes atrás de níveis de verificação. Defensores individuais podem se conectar em chatgpt.com/cyber, enquanto as empresas devem solicitar acesso em equipe por meio de um representante da OpenAI. Um nível de convite apenas para convidados concede as capacidades mais permissivas, incluindo o GPT-5.4-Cyber, mas pode exigir que os usuários renunciem à Retenção Zero de Dados, dando à OpenAI visibilidade sobre como o modelo é aplicado.
A atualização mais recente da OpenAI expande o TAC de um piloto limitado para "milhares de defensores individuais verificados e centenas de equipes responsáveis por defender software crítico", de acordo com a empresa. Novos níveis de verificação desbloqueiam recursos progressivamente poderosos, e o lançamento marca uma mudança de recusa de nível de modelo para um foco em quem pode fazer as perguntas. A OpenAI estrutura a abordagem em torno de três princípios: acesso democrático por meio de verificação objetiva, implantação iterativa que refina a segurança à medida que os riscos surgem e resiliência do ecossistema por meio de subvenções e contribuições de código aberto.
O timing coincide com o anúncio da Anthropic em abril do Projeto Glasswing, que colocou seu modelo Claude Mythos Preview atrás de uma iniciativa defensiva de $100 milhões e limitou o acesso a apenas 11 organizações, incluindo Apple, Google, Microsoft e várias outras. O modelo da Anthropic demonstrou a descoberta autônoma de milhares de vulnerabilidades zero-day em sistemas operacionais principais, levando a empresa a manter a ferramenta rigidamente controlada. A estratégia da OpenAI diverge, oferecendo uma solução menos poderosa, mas mais amplamente disponível, argumentando que restringir ferramentas de segurança avançadas a um punhado de gigantes da tecnologia deixa a maioria das organizações — hospitais, governos municipais, pequenas empresas de segurança — sem capacidades defensivas comparáveis.
Além da barreira de recusa reduzida, o GPT-5.4-Cyber visa fluxos de trabalho que o ChatGPT padrão lida mal. A engenharia reversa binária, o recurso de destaque, permite que os analistas dissecem binários sem código-fonte, uma tarefa tradicionalmente reservada para ferramentas como IDA Pro ou Ghidra. O modelo também atende a consultas de uso duplo sobre técnicas de ataque, chains de exploits e classes de vulnerabilidade, reduzindo a fricção para equipes de segurança que precisam raciocinar sobre táticas adversárias.
A OpenAI combina o modelo com o Codex Security, um serviço de varredura de código automatizado que já contribuiu para mais de 3.000 correções de vulnerabilidades críticas em todo o ecossistema de código aberto. O Codex agora cobre mais de 1.000 projetos por meio de um programa de varredura gratuito, reforçando a pilha defensiva em torno do novo modelo.
O dilema do uso duplo permanece central. As mesmas capacidades que ajudam os defensores a detectar falhas podem ajudar os atacantes a armazená-las. A OpenAI argumenta que a verificação, o acesso em níveis e o monitoramento de uso são salvaguardas mais eficazes do que a recusa em branco, citando pesquisas que mostram que ataques de injeção de prompts podem bypassar defesas baseadas em recusa mais de 85% do tempo. Críticos observam que exigir que os usuários de nível superior renunciem à Retenção Zero de Dados pode expor dados de investigação sensíveis à OpenAI, criando um possível ponto de comprometimento único se os logs forem violados.
À medida que o Ato de IA da UE se prepara para a aplicação em agosto de 2026, sistemas de IA de alto risco — incluindo ferramentas de automação de segurança — precisarão atender a requisitos rigorosos de gestão de riscos e transparência. Como o modelo de acesso em níveis da OpenAI se encaixa dentro desse quadro regulatório permanece incerto.
Por enquanto, a indústria observa duas empresas de IA líderes competindo para equipar defensores cibernéticos com modelos que possam analisar vulnerabilidades a uma velocidade sem precedentes. Se a competição renderá uma internet mais segura ou ampliará o risco dependerá de quão robustas as controles de acesso e mecanismos de monitoramento se provarem ser.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas