Atrás

DeepSeek Presenta Modelos V4 de Código Abierto, Afirmación de Liderazgo en Benchmarks de Codificación y Precios de Tokens de Bajo Costo

DeepSeek, la startup de inteligencia artificial con sede en Hangzhou, anunció el 24 de abril que está haciendo que dos nuevos modelos de lenguaje grande estén disponibles públicamente. La empresa llama a las ofertas V4-Pro, un modo "Experto" con 1,6 billones de parámetros totales y 49 mil millones de parámetros activos, y V4-Flash, un modo "Instantáneo" que se ejecuta en 284 mil millones de parámetros totales y 13 mil millones de parámetros activos. Ambos modelos admiten una ventana de contexto de un millón de tokens, una capacidad que rara vez se ve fuera de unos pocos sistemas propietarios.

A diferencia de la mayoría de los modelos de vanguardia, DeepSeek lanzó el código y los pesos en Hugging Face, lo que permite a los desarrolladores descargar y ejecutar los modelos en su propio hardware. Si bien V4-Flash puede operar en configuraciones de GPU más modestas, V4-Pro requiere una cantidad sustancial de VRAM, lo que refleja su mayor escala. La postura de código abierto marca una clara desviación del enfoque de código cerrado de competidores como OpenAI, Google y Anthropic.

Resultados de Benchmark y Precios

En una serie de benchmarks públicos, V4-Pro obtuvo una calificación de Codeforces de 3.206, superando la calificación de 3.168 de GPT-5.4 y la calificación de 3.052 de Google Gemini, lo que lo convierte en el modelo abierto más fuerte para tareas de programación competitiva. En LiveCodeBench, el modelo logró una tasa de aprobación del 93,5%, superando la tasa de aprobación del 88,8% de Claude Opus 4.6 y la tasa de aprobación del 91,7% de Gemini. Para cargas de trabajo de agentes, V4-Pro obtuvo una puntuación de 51,8 en Toolathlon, superando nuevamente a Claude (47,2) y Gemini (48,8). V4-Flash igualó a V4-Pro en tareas de agentes más simples mientras consumía mucho menos cómputo.

Los modelos de DeepSeek no dominaron todas las categorías. Claude Opus 4.6 retuvo el liderazgo en la recuperación de contexto largo, con una puntuación de 92,9 en el benchmark MRCR 1M en comparación con la puntuación de 83,5 de V4-Pro. De manera similar, OpenAI GPT-5.4 permaneció por delante en Terminal Bench 2.0, con una puntuación de 75,1 en comparación con la puntuación de 67,9 de V4-Pro.

El anuncio de precios atrajo una atención particular. DeepSeek estableció el costo de V4-Pro en $3,48 por millón de tokens de salida, una fracción de los $30 de OpenAI y los $25 de Anthropic para un uso comparable. La empresa argumenta que la brecha de precios podría hacer que sus modelos sean atractivos para los desarrolladores que construyen aplicaciones impulsadas por inteligencia artificial, especialmente aquellos que necesitan ventanas de contexto extensas.

Los observadores de la industria señalan que la combinación de disponibilidad de código abierto, rendimiento sólido en tareas de codificación y agentes, y precios agresivos podría cambiar la dinámica del mercado de modelos grandes. Sin embargo, los requisitos de hardware para V4-Pro pueden limitar la adopción entre los equipos más pequeños que carecen de clusters de GPU de alta gama.

El movimiento de DeepSeek subraya una tendencia más amplia hacia la democratización del acceso a modelos de inteligencia artificial poderosos. Al publicar los pesos y ofrecer un nivel de precios de bajo costo, la empresa espera estimular la innovación en toda la comunidad de desarrolladores mientras desafía el dominio de los proveedores de código cerrado.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: