What is new on Article Factory and latest in generative AI world

Ollama Adiciona Suporte ao MLX da Apple, Melhora o Desempenho dos Modelos Mac

Ollama Adiciona Suporte ao MLX da Apple, Melhora o Desempenho dos Modelos Mac
Ollama, um runtime para executar grandes modelos de linguagem localmente, anunciou suporte de pré-visualização para o framework de código aberto MLX da Apple e adicionou o formato de compressão NVFP4 da Nvidia. A atualização é direcionada aos Macs com Apple Silicon, exigindo pelo menos 32 GB de RAM, e atualmente suporta o modelo Qwen 3.5 de 35 bilhões de parâmetros da Alibaba. Essas mudanças visam melhorar o cache, a eficiência de memória e a velocidade geral, alinhando-se com o crescente interesse em executar modelos de IA em máquinas pessoais diante das frustrações com os limites de taxa e custos de assinatura baseados em nuvem. Leia mais →