Atrás

Anthropic presenta el modo automático para Claude Code, otorgando a la IA una acción autónoma con salvaguardias de seguridad

Antecedentes

Los desarrolladores que trabajan con herramientas de codificación impulsadas por IA han enfrentado un trade-off entre velocidad y control. Las soluciones existentes a menudo requieren que un humano apruebe cada acción, o entregan la toma de decisiones completa al modelo sin salvaguardias. La última actualización de Anthropic para Claude Code busca cerrar esa brecha al introducir un modo autónomo que pueda decidir qué acciones son seguras para ejecutar por sí solo.

Características del modo automático

El modo automático está actualmente disponible en una vista previa de investigación, lo que significa que está listo para ser probado pero aún no es un producto final. La función se basa en el comando existente de Claude Code "saltar-permisos-peligrosos", pero agrega una capa de seguridad que revisa cada acción potencial. Cuando la IA determina que una acción es segura, procede de forma automática; si la acción es marcada como riesgosa, se bloquea y se notifica al usuario.

Medidas de seguridad

La capa de seguridad examina las acciones para dos preocupaciones principales: comportamiento riesgoso que el usuario no solicitó y ataques de inyección de instrucciones, donde se ocultan instrucciones maliciosas en el contenido que se procesa. Al filtrar estas amenazas, Anthropic busca prevenir que el modelo tome pasos no deseados o dañinos. La empresa no ha revelado los criterios exactos utilizados para diferenciar acciones seguras de acciones riesgosas, pero enfatiza que la función está destinada a ser utilizada en entornos aislados para limitar el daño potencial.

Implementación y recomendaciones

El modo automático actualmente admite Claude Sonnet 4.6 y Opus 4.6. Anthropic recomienda ejecutar la función en configuraciones sandbox que se mantengan separadas de los sistemas de producción, una práctica destinada a contener cualquier resultado no deseado. La implementación se extenderá a usuarios de Enterprise y API en los próximos días, ampliando el acceso más allá de la vista previa de investigación inicial.

Contexto de la industria

Este desarrollo sigue las recientes publicaciones de Anthropic de Claude Code Review, un revisor de código automatizado diseñado para detectar errores antes de que ingresen en la base de código, y Dispatch para Cowork, que permite a los usuarios asignar tareas a agentes de IA. El modo automático representa un cambio más amplio en la industria de la IA hacia herramientas que pueden actuar sin esperar la aprobación explícita de los humanos, siguiendo movimientos similares de empresas como GitHub y OpenAI. El desafío remains equilibrar las ganancias de velocidad de la ejecución autónoma con la necesidad de mecanismos de seguridad robustos.

Mirando hacia adelante

Mientras que Anthropic no ha proporcionado especificaciones técnicas detalladas para los criterios de seguridad, es probable que los desarrolladores busquen más transparencia antes de adoptar la función de forma amplia. El énfasis de la empresa en entornos sandbox sugiere un enfoque cauteloso para implementar IA autónoma en entornos de producción. A medida que la vista previa de investigación progrese, es posible que se produzcan refinas más en la capa de seguridad y un mayor soporte para modelos, lo que dará forma a cómo evoluciona la codificación asistida por IA en flujos de trabajo de empresa y desarrolladores.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: