Voltar

Anthropic Introduz Modo Auto Seguro para Claude Code

Visão Geral do Modo Auto do Claude Code

A Anthropic anunciou um novo modo auto para sua ferramenta Claude Code, uma ferramenta que permite que a inteligência artificial tome decisões de nível de permissão em nome dos desenvolvedores. A adição visa um meio-termo entre a supervisão manual constante e a concessão de autonomia irrestrita ao modelo, o que pode levar a resultados indesejados, como a exclusão acidental de arquivos, a partilha de dados não intencionais ou a execução de código malicioso.

Como o Modo Auto Melhora a Segurança

O modo auto é projetado para interceptar ações que possam ser arriscadas antes que sejam executadas. Quando o Claude Code tenta uma operação que pode representar uma ameaça, o recurso sinaliza a ação, bloqueia-a e oferece ao modelo a chance de tentar uma abordagem alternativa ou solicita a intervenção do usuário. Essa camada de segurança visa fornecer aos desenvolvedores um ambiente mais seguro, aproveitando ainda a conveniência da assistência impulsionada por IA.

Disponibilidade Atual e Expansão Planejada

No lançamento, o modo auto é oferecido como uma prévia de pesquisa limitada a usuários do plano Team da Anthropic. A Anthropic indicou que o acesso será ampliado para incluir clientes Enterprise e usuários de sua API nos próximos dias, permitindo que uma audiência mais ampla teste o recurso.

Natureza Experimental e Uso Recomendado

A Anthropic alerta que o modo auto permanece experimental e não elimina completamente o risco. A empresa aconselha os desenvolvedores a empregar o Claude Code em ambientes isolados para mitigar os impactos potenciais. Ao reconhecer as limitações, a Anthropic incentiva a experimentação responsável, continuando a desenvolver ferramentas de assistência de IA mais seguras.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: