OpenAI Utiliza Chip de Escala de Placa da Cerebras para Aumentar a Velocidade do Codex
Parceria e Novo Hardware
A OpenAI anunciou uma colaboração com a Cerebras que traz seu modelo de codificação Codex-Spark para o Wafer Scale Engine 3. Este processador, descrito como do tamanho de um prato de jantar, representa a oferta de hardware central da Cerebras e é o primeiro produto a emergir da parceria anunciada no início deste ano.
Benchmark de Desempenho
O Codex-Spark entrega cerca de 1.000 tokens por segundo, uma velocidade que a OpenAI chama de modesta pelos padrões da Cerebras. A empresa mediu 2.100 tokens por segundo no Llama 3.1 70B e relatou 3.000 tokens por segundo em seu próprio modelo gpt-oss-120B de peso aberto, sugerindo que a figura mais baixa reflete a natureza maior ou mais complexa do Codex-Spark.
Por que a Velocidade Importa
Os assistentes de codificação impulsionados por IA experimentaram um ano de destaque, com ferramentas como o Codex da OpenAI e o Claude Code da Anthropic se tornando cada vez mais úteis para prototipagem rápida, design de interface e geração de boilerplate. Uma inferência mais rápida se traduz diretamente em uma iteração mais rápida dos desenvolvedores, transformando uma experiência de 1.000 tokens por segundo em algo que os desenvolvedores descrevem como uma "serra circular" versus um processo mais lento e laborioso.
Paisagem Competitiva
O mercado de assistentes de codificação está congestionado. A OpenAI, a Anthropic, o Google e outras empresas estão correndo para entregar agentes mais capazes, e a latência se tornou um diferenciador fundamental. A OpenAI recentemente lançou o GPT-5.3-Codex após um memorando interno "code red" destacar a pressão competitiva do Google, após o lançamento anterior do GPT-5.2 em dezembro.
Reduzindo a Dependência da Nvidia
A OpenAI tem diversificado sistematicamente seus fornecedores de hardware. A empresa assinou um acordo de vários anos com a AMD em outubro de 2025, entrou em um acordo de computação em nuvem de US$ 38 bilhões com a Amazon em novembro e está projetando seu próprio chip de IA personalizado para fabricação eventual pela TSMC. Um acordo de infraestrutura de US$ 100 bilhões com a Nvidia foi interrompido, embora a Nvidia tenha comprometido um investimento de US$ 20 bilhões. A Reuters relatou que a OpenAI ficou insatisfeita com a velocidade de alguns chips da Nvidia para tarefas de inferência, uma deficiência que o Codex-Spark visa abordar.
Implicações para os Desenvolvedores
Para os desenvolvedores que gastam horas dentro de um editor de código esperando por sugestões de IA, os ganhos de velocidade oferecidos pelo Codex-Spark podem reduzir significativamente a fricção. Embora os números de desempenho sejam ainda modestos em comparação com os benchmarks de ponta da Cerebras, a parceria sinaliza o compromisso da OpenAI em entregar ferramentas de codificação mais rápidas e responsivas como parte de uma estratégia de diversificação de hardware mais ampla.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas