OpenAI aprovecha el chip de escala de oblea de Cerebras para aumentar la velocidad de Codex
Asociación y nuevo hardware
OpenAI anunció una colaboración con Cerebras que lleva su modelo de codificación Codex-Spark al Wafer Scale Engine 3. Este procesador, descrito como del tamaño de un plato de cena, representa la oferta de hardware central de Cerebras y es el primer producto que surge de la asociación anunciada anteriormente este año.
Benchmark de rendimiento
Codex-Spark entrega alrededor de 1,000 tokens por segundo, una velocidad que OpenAI considera modesta según los estándares de Cerebras. La empresa ha medido 2,100 tokens por segundo en Llama 3.1 70B y ha informado 3,000 tokens por segundo en su propio modelo gpt-oss-120B de peso abierto, lo que sugiere que la cifra más baja refleja la naturaleza más grande o compleja de Codex-Spark.
Por qué la velocidad es importante
Los asistentes de codificación impulsados por IA han experimentado un año de avance, con herramientas como Codex de OpenAI y Claude Code de Anthropic que se vuelven cada vez más útiles para la prototipación rápida, el diseño de interfaz y la generación de código de arranque. Una inferencia más rápida se traduce directamente en una iteración más rápida de los desarrolladores, convirtiendo una experiencia de 1,000 tokens por segundo en lo que los desarrolladores describen como una "sierra de cinta" en lugar de un proceso más lento y laborioso.
Paisaje competitivo
El mercado de asistentes de codificación está congestionado. OpenAI, Anthropic, Google y otras empresas están compitiendo para enviar agentes más capaces, y la latencia se ha convertido en un diferenciador clave. OpenAI lanzó recientemente GPT-5.3-Codex después de un memorándum interno de "código rojo" que destacó la presión competitiva de Google, después del lanzamiento anterior de GPT-5.2 en diciembre.
Reducir la dependencia de Nvidia
OpenAI ha estado diversificando sistemáticamente a sus proveedores de hardware. La empresa firmó un acuerdo de varios años con AMD en octubre de 2025, entró en un acuerdo de computación en la nube de $38 mil millones con Amazon en noviembre y está diseñando su propio chip de IA personalizado para su eventual fabricación por TSMC. Un acuerdo de infraestructura de $100 mil millones con Nvidia se ha estancado, aunque Nvidia luego se comprometió a invertir $20 mil millones. Reuters informó que OpenAI se descontentó con la velocidad de algunos chips de Nvidia para tareas de inferencia, una deficiencia que Codex-Spark busca abordar.
Implicaciones para los desarrolladores
Para los desarrolladores que pasan horas dentro de un editor de código esperando sugerencias de IA, las ganancias de velocidad ofrecidas por Codex-Spark podrían reducir significativamente la fricción. Si bien los números de rendimiento siguen siendo modestos en comparación con los mejores benchmarks de Cerebras, la asociación señala el compromiso de OpenAI para entregar herramientas de codificación más rápidas y responsivas como parte de una estrategia de diversificación de hardware más amplia.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas