Voltar

DeepSeek Lança Modelos V4 de Código Aberto, Alegando Liderança em Benchmarks de Codificação e Preços de Tokens de Baixo Custo

A DeepSeek, uma startup de inteligência artificial com sede em Hangzhou, anunciou em 24 de abril que está tornando dois novos modelos de linguagem grande disponíveis publicamente. A empresa chama as ofertas de V4-Pro, um modo "Especialista" com 1,6 trilhão de parâmetros totais e 49 bilhões de parâmetros ativos, e V4-Flash, um modo "Instantâneo" que executa 284 bilhões de parâmetros totais e 13 bilhões de parâmetros ativos. Ambos os modelos suportam uma janela de contexto de um milhão de tokens, uma capacidade raramente vista fora de um punhado de sistemas proprietários.

Ao contrário da maioria dos modelos de ponta, a DeepSeek lançou o código e os pesos no Hugging Face, permitindo que os desenvolvedores baixem e executem os modelos em seu próprio hardware. Embora o V4-Flash possa operar em configurações de GPU mais modestas, o V4-Pro exige uma quantidade substancial de VRAM, refletindo seu tamanho maior. A postura de código aberto marca uma clara divergência da abordagem de código fechado de concorrentes como OpenAI, Google e Anthropic.

Resultados de Benchmark e Preços

Em uma série de benchmarks públicos, o V4-Pro obteve uma classificação de 3.206 no Codeforces, superando a classificação de 3.168 do GPT-5.4 e a classificação de 3.052 do Google Gemini, tornando-se o modelo aberto mais forte para tarefas de programação competitiva. No LiveCodeBench, o modelo alcançou uma taxa de aprovação de 93,5%, superando a taxa de aprovação de 88,8% do Claude Opus 4.6 e a taxa de aprovação de 91,7% do Gemini. Para cargas de trabalho de agência, o V4-Pro obteve uma pontuação de 51,8 no Toolathlon, novamente superando o Claude (47,2) e o Gemini (48,8). O V4-Flash igualou o V4-Pro em tarefas de agente mais simples, consumindo muito menos computação.

Os modelos da DeepSeek não dominaram todas as categorias. O Claude Opus 4.6 manteve a liderança na recuperação de contexto longo, obtendo uma pontuação de 92,9 no benchmark MRCR 1M em comparação com a pontuação de 83,5 do V4-Pro. Da mesma forma, a OpenAI manteve a liderança no Terminal Bench 2.0, obtendo uma pontuação de 75,1 em comparação com a pontuação de 67,9 do V4-Pro.

O anúncio de preços atraiu atenção particular. A DeepSeek estabeleceu o preço do V4-Pro em $3,48 por milhão de tokens de saída, uma fração do preço de $30 da OpenAI e do preço de $25 da Anthropic para uso comparável. A empresa argumenta que a diferença de preços pode tornar seus modelos atraentes para os desenvolvedores que constroem aplicativos alimentados por IA, especialmente aqueles que precisam de janelas de contexto extensas.

Observadores da indústria notam que a combinação de disponibilidade de código aberto, desempenho forte em tarefas de codificação e agência e preços agressivos pode alterar a dinâmica do mercado de modelos grandes. No entanto, os requisitos de hardware para o V4-Pro podem limitar a adoção entre equipes menores que não têm clusters de GPU de ponta.

A movimentação da DeepSeek sublinha uma tendência mais ampla de democratizar o acesso a modelos de IA poderosos. Ao publicar os pesos e oferecer um nível de preços de baixo custo, a empresa espera estimular a inovação em toda a comunidade de desenvolvedores, enquanto desafia a dominância de provedores de código fechado.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: