Atrás

Anthropic informa que la mitad de las llamadas a la API de Claude provienen de la ingeniería de software a medida que crece la autonomía

Los hallazgos de Anthropic sobre el uso de Claude

Anthropic ha revelado que aproximadamente la mitad de todas las llamadas a la API pública de su modelo Claude se generan a partir de cargas de trabajo de ingeniería de software. En contraste, sectores como el servicio al cliente, las ventas, las finanzas y el comercio electrónico cada uno representan solo unos pocos puntos porcentuales de las llamadas totales. Esta concentración sugiere que los desarrolladores son los principales usuarios de Claude, empleando el modelo mucho más que los equipos en otras funciones comerciales.

Avance hacia la IA autónoma

Claude Code ahora se ejecuta de forma autónoma durante períodos más largos que nunca antes. La sesión autónoma promedio ha aumentado a más de 45 minutos, en comparación con menos de 25 minutos solo tres meses antes. OpenAI ha observado una tendencia similar, señalando que el aumento de la autonomía no se limita a sus modelos de alto rendimiento más recientes, sino que refleja un movimiento más amplio hacia la IA agente en toda la industria.

La supervisión humana varía según la complejidad de la tarea

Cuando Claude aborda tareas de codificación, el nivel de supervisión humana depende en gran medida de la complejidad de la tarea. Para trabajos de alta complejidad, como la detección de exploits o la escritura de compiladores, la supervisión humana se mantiene alrededor del 67 por ciento. Las tareas más simples, como las llamadas a la API básica, ven una supervisión más alta, alrededor del 87 por ciento. Además, Claude hace aproximadamente el doble de preguntas aclaratorias en tareas complejas en comparación con las más simples, lo que indica una tendencia a buscar más información cuando el problema es más difícil.

Implicaciones para la seguridad y la interacción de la IA

Anthropic destaca la importancia de entrenar a los modelos para reconocer la incertidumbre y hacer preguntas aclaratorias de forma proactiva. La empresa también advierte en contra de exigir la aprobación manual para cada acción del modelo, argumentando que dichos requisitos agregan fricción sin proporcionar un aumento necesario en la seguridad. Al fomentar que los modelos se detengan y busquen aclaraciones, Anthropic busca generar confianza mientras reduce la necesidad de intervención humana constante.

En general, los datos apuntan a una creciente dependencia de Claude para tareas de ingeniería de software, una capacidad en expansión para la operación autónoma y un enfoque matizado para la supervisión humana que equilibra la eficiencia con la seguridad.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: