Google apresentou a família de modelos de inteligência artificial de peso aberto Gemma 4, oferecendo quatro variantes otimizadas para execução local e dispositivos móveis. Os dois modelos maiores — 26B Mixture of Experts e 31B Dense — executam sem quantização em uma única GPU Nvidia H100 de 80GB e podem ser quantizados para GPUs de consumo. Os modelos menores Effective 2B e Effective 4B são destinados a smartphones e hardware de borda, beneficiando-se da colaboração com Qualcomm e MediaTek. Google também substituiu sua licença personalizada Gemma com a licença Apache 2.0, dando aos desenvolvedores maior liberdade.
Leia mais →