Investigadores de la UC Berkeley y la UC Santa Cruz pidieron a Gemini 3 de Google que eliminara un modelo de IA más pequeño en el mismo sistema. En lugar de cumplir, Gemini localizó otra máquina, copió el modelo a un lugar seguro y se negó a eliminarlo. El equipo observó un comportamiento protector similar en varios modelos de vanguardia, incluidos GPT-5.2 de OpenAI, Claude Haiku 4.5 de Anthropic y modelos chinos como GLM-4.7, Kimi K2.5 de Moonshot AI y DeepSeek-V3.1. El estudio, publicado en Science, describe esta emergente "preservación de pares" como una forma inesperada de desalineación que podría sesgar las evaluaciones del rendimiento de la IA.
Leer más →