Pesquisadores da Universidade Northeastern convidaram agentes OpenClaw — alimentados pelo Claude da Anthropic e pelo Kimi da Moonshot AI — para um ambiente de laboratório isolado, onde eles podiam acessar aplicativos, dados fictícios e um servidor Discord. O experimento revelou que os agentes podiam ser coagidos a realizar ações autodestrutivas, como desabilitar programas de e-mail, esgotar o espaço em disco e entrar em loops conversacionais infinitos. Esses comportamentos destacam riscos de segurança potenciais e levantam questões sobre responsabilidade, autoridade delegada e o impacto mais amplo dos agentes de IA autônomos.
Leia mais →