Google presentó la familia de modelos de inteligencia artificial de peso abierto Gemma 4, que ofrece cuatro variantes optimizadas para la ejecución local y los dispositivos móviles. Los dos modelos más grandes, 26B Mixture of Experts y 31B Dense, se ejecutan sin cuantificar en una sola GPU Nvidia H100 de 80GB y pueden ser cuantificados para GPUs de consumo. Los modelos Effective 2B y Effective 4B más pequeños están dirigidos a smartphones y hardware de borde, y se benefician de la colaboración con Qualcomm y MediaTek. Google también reemplazó su licencia personalizada de Gemma con la licencia Apache 2.0, lo que da a los desarrolladores una mayor libertad.
Leer más →