Atrás

Anthropic presenta la vista previa del modo 'automático' para Claude Code para reducir operaciones de archivo riesgosas

Antecedentes

Anthropic presentó una vista previa del 'modo automático' para su asistente de IA Claude Code. La empresa posicionó la función como un compromiso entre la configuración predeterminada, donde Claude solicita la aprobación del usuario antes de cada escritura de archivo o comando de bash, y la práctica riesgosa que algunos desarrolladores emplean para dejar que el chatbot actúe con una supervisión mínima.

Descripción general de la función

Cuando se habilita el modo automático, un clasificador evalúa cada acción propuesta. Si el clasificador considera que la acción es segura, Claude procede sin solicitar la aprobación del usuario. Si la acción parece riesgosa, Claude se redirige para solicitar clarificación o adoptar un enfoque alternativo. Este diseño tiene como objetivo reducir incidentes como eliminaciones masivas de archivos, exposición de datos confidenciales o ejecución de código malicioso.

Mecanismos de seguridad

Anthropic diseñó el clasificador para actuar como un guardián, otorgando permiso solo para acciones que cumplan con sus criterios de seguridad. El objetivo es reducir la probabilidad de que Claude elimine involuntariamente grandes cantidades de archivos, extraiga información confidencial o ejecute scripts dañinos. Al filtrar las acciones, el sistema busca proteger a los desarrolladores y los entornos en los que trabajan.

Límites y advertencias

Anthropic advierte que el clasificador no es infalible. La empresa señala que la intención del usuario ambigua o la falta de contexto sobre el entorno de destino podrían llevar al clasificador a permitir acciones riesgosas. En tales casos, Claude podría seguir realizando operaciones que conllevan un riesgo adicional.

Motivación

El reciente apagón de 13 horas de AWS, que se relacionó con una herramienta de IA que eliminó un entorno de hosting, parece haber influido en la decisión de Anthropic de desarrollar el modo automático. Aunque Amazon atribuyó ese incidente a un error humano y permisos más amplios de lo esperado, el evento subrayó la necesidad de salvaguardias más estrictas alrededor de la ejecución de código impulsada por la IA.

Plan de implementación

Los usuarios del plan de equipo pueden comenzar a probar el modo automático de inmediato. Anthropic planea extender la función a los clientes de Enterprise y API en los próximos días, lo que permitirá a un conjunto más amplio de desarrolladores beneficiarse de la capa de seguridad adicional mientras conservan las ganancias de productividad de Claude Code.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: