OpenAI Apresenta Modelos GPT-5.4 Mini e Nano Mais Rápidos e de Menor Custo
Contexto
A OpenAI está expandindo sua carteira de modelos, oferecendo versões reduzidas do seu sistema GPT-5.4. A medida reflete uma demanda crescente de desenvolvedores por modelos que forneçam respostas rápidas e menores custos operacionais sem sacrificar as capacidades principais.
Novos Modelos Mini e Nano
O modelo GPT-5.4 Mini entrega mais de duas vezes a velocidade do modelo GPT-5.4 completo, mantendo um desempenho próximo ao do modelo maior nos principais benchmarks. A variante Nano impulsiona a eficiência ainda mais, visando tarefas mais simples, como classificação e extração de dados, onde a velocidade bruta e o custo são primordiais.
Desempenho e Custo
Ambos os modelos Mini e Nano retêm o conjunto completo de recursos, incluindo entradas de texto e imagem, uso de ferramentas, chamada de funções e uma janela de contexto de 400.000 tokens. O modelo Mini atinge 54,4 por cento no SWE-Bench Pro em comparação com 57,7 por cento para o modelo completo, e 72,1 por cento no OSWorld-Verified versus 75 por cento para a versão maior, mostrando uma pequena lacuna de desempenho. As reduções de custo são dramáticas: o Mini é precificado em $0,75 por milhão de tokens de entrada e $4,50 por milhão de tokens de saída, enquanto o Nano cai para $0,20 por milhão de tokens de entrada e $1,25 por milhão de tokens de saída.
Disponibilidade e Casos de Uso
Os novos modelos estão disponíveis hoje. O Mini é acessível por meio da API, Codex e ChatGPT, com usuários gratuitos e Go alcançando-o por meio da opção "Pensamento". O Nano está atualmente limitado à API e é direcionado a cargas de trabalho de alto volume, onde o controle de custo é crítico. Os desenvolvedores podem empregar um fluxo de trabalho multi-modelo, combinando um modelo maior para planejamento com o Mini ou Nano para execução, o que reflete as arquiteturas de aplicativos do mundo real que separam o julgamento do processamento repetitivo.
Implicações para Desenvolvedores
Essa oferta em camadas permite que os desenvolvedores transfiram a codificação rotineira e as tarefas de background para níveis mais baratos, reservando o modelo GPT-5.4 completo para raciocínio complexo. Os primeiros feedbacks indicam que o Mini pode igualar ou superar modelos concorrentes em várias tarefas a um custo menor, e em alguns casos fornece resultados mais fortes de ponta a ponta do que o modelo completo. A suite expandida habilita os desenvolvedores a equilibrar velocidade, custo e capacidade de forma mais eficaz, moldando a próxima geração de recursos de IA em tempo real.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas