A Anthropic lançou um modo auto para sua ferramenta Claude Code, permitindo que a IA atue em nome dos usuários enquanto reduz o risco de ações indesejadas. O recurso sinaliza e bloqueia operações potencialmente arriscadas, solicitando que o modelo tente novamente ou peça intervenção do usuário. Atualmente disponível como uma prévia de pesquisa para usuários do plano Team, a Anthropic planeja estender o acesso a usuários Enterprise e API nos próximos dias. A empresa enfatiza que a ferramenta permanece experimental e recomenda seu uso em ambientes isolados.
Leia mais →