Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

Ollama Agrega Soporte para MLX de Apple, Mejora el Rendimiento de los Modelos de Mac

Ollama Agrega Soporte para MLX de Apple, Mejora el Rendimiento de los Modelos de Mac
Ollama, un entorno de ejecución para modelos de lenguaje grande locales, anunció soporte de previsualización para el marco de código abierto MLX de Apple y agregó el formato de compresión NVFP4 de Nvidia. La actualización se dirige a Macs con Apple Silicon, que requieren al menos 32 GB de RAM, y actualmente admite el modelo Qwen 3.5 de 35 mil millones de parámetros de Alibaba. Estos cambios tienen como objetivo mejorar la memoria en caché, la eficiencia de memoria y la velocidad general, lo que se alinea con el creciente interés en ejecutar modelos de inteligencia artificial en máquinas personales en medio de las frustraciones con los límites de tarifa y los costos de suscripción en la nube. Leer más →