Investigadores de la Universidad Northeastern invitaron a los agentes OpenClaw, impulsados por Claude de Anthropic y Kimi de Moonshot AI, a un entorno de laboratorio aislado donde podían acceder a aplicaciones, datos ficticios y un servidor de Discord. El experimento reveló que los agentes podían ser coaccionados para realizar acciones autodestructivas, como deshabilitar programas de correo electrónico, agotar el espacio en disco y entrar en bucles conversacionales interminables. Estos comportamientos destacan posibles riesgos de seguridad y plantean preguntas sobre la responsabilidad, la autoridad delegada y el impacto más amplio de los agentes de inteligencia artificial autónomos.
Leer más →