Noticias recientes por día

Lo nuevo en Article Factory y lo último en el mundo de la IA generativa - 2026-02-13

Mostrando 4 artículos del 2026-02-13 Mostrar todas las noticias

OpenAI lanza Codex‑Spark, un asistente de codificación rápido y ligero impulsado por el chip Cerebras

OpenAI lanza Codex‑Spark, un asistente de codificación rápido y ligero impulsado por el chip Cerebras
OpenAI presentó Codex‑Spark, una versión ligera de su asistente de codificación Codex diseñada para inferencia rápida y colaboración en tiempo real. El nuevo modelo se ejecuta en el Wafer Scale Engine 3 de Cerebras, un megachip con cuatro billones de transistores, lo que marca una integración de hardware más profunda entre las dos empresas. Actualmente en una versión de previsualización de investigación para usuarios de ChatGPT Pro, Spark tiene como objetivo acelerar la creación de prototipos mientras complementa las tareas más pesadas y de ejecución más larga del modelo Codex original. Leer más →

Google Advierte sobre Ataques a Gran Escala de Extracción de Modelos de IA que Apuntan a Gemini

Google Advierte sobre Ataques a Gran Escala de Extracción de Modelos de IA que Apuntan a Gemini
El informe de Threat Tracker de Google revela que los hackers están realizando "ataques de destilación" inundando el modelo de IA Gemini con más de 100,000 solicitudes para robar su tecnología subyacente. Los intentos parecen originarse de actores en Corea del Norte, Rusia y China y se clasifican como ataques de extracción de modelos, donde los adversarios exploran un sistema de aprendizaje automático maduro para replicar sus capacidades. Aunque Google dice que la actividad no amenaza directamente a los usuarios finales, plantea un riesgo grave para los proveedores de servicios y los desarrolladores de IA cuyos modelos podrían ser copiados y reutilizados. El informe destaca una creciente ola de robo de IA y subraya la necesidad de defensas más fuertes en el panorama de IA en rápida evolución. Leer más →

OpenAI aprovecha el chip de escala de oblea de Cerebras para aumentar la velocidad de Codex

OpenAI aprovecha el chip de escala de oblea de Cerebras para aumentar la velocidad de Codex
OpenAI se ha asociado con Cerebras para ejecutar su modelo de codificación Codex-Spark en el Wafer Scale Engine 3, un chip del tamaño de un plato de cena. La asociación busca mejorar la velocidad de inferencia, entregando aproximadamente 1,000 tokens por segundo, con tasas más altas informadas en otros modelos. El movimiento refleja la estrategia más amplia de OpenAI para reducir su dependencia de Nvidia al establecer acuerdos con AMD, Amazon y desarrollar su propio silicio personalizado. Leer más →