Ollama, un entorno de ejecución para modelos de lenguaje grande locales, anunció soporte de previsualización para el marco de código abierto MLX de Apple y agregó el formato de compresión NVFP4 de Nvidia. La actualización se dirige a Macs con Apple Silicon, que requieren al menos 32 GB de RAM, y actualmente admite el modelo Qwen 3.5 de 35 mil millones de parámetros de Alibaba. Estos cambios tienen como objetivo mejorar la memoria en caché, la eficiencia de memoria y la velocidad general, lo que se alinea con el creciente interés en ejecutar modelos de inteligencia artificial en máquinas personales en medio de las frustraciones con los límites de tarifa y los costos de suscripción en la nube.
Leer más →