Anthropic Amplía el Uso de Datos de Claude y Ofrece Opción de Renuncia para los Usuarios
Cambio de Política y Razonamiento
Anthropic se prepara para incorporar las conversaciones de los usuarios con su chatbot Claude, así como las tareas de codificación realizadas dentro de la herramienta, en los datos de entrenamiento para futuros grandes modelos de lenguaje. La empresa explicó que los grandes modelos de lenguaje requieren conjuntos de datos extensos, y las interacciones del mundo real proporcionan valiosas perspectivas sobre qué respuestas son más útiles y precisas para los usuarios. Esto representa un alejamiento de la postura anterior de Anthropic, donde las conversaciones de los usuarios no se utilizaban automáticamente para el entrenamiento de modelos.
Cronograma de Implementación
La política de privacidad actualizada está programada para entrar en vigor el 8 de octubre. El cambio estaba originalmente programado para el 28 de septiembre, pero se pospuso para dar a los usuarios tiempo adicional para revisar los nuevos términos. Gabby Curtis, portavoz de Anthropic, indicó que el retraso se debió a garantizar una transición técnica fluida.
Mecanismo de Renuncia
Los nuevos usuarios de Claude se encontrarán con un mensaje de decisión durante el proceso de registro, mientras que los usuarios existentes pueden ver una ventana emergente que describe los cambios. La configuración predeterminada, etiquetada como "Ayuda a mejorar Claude", está activada, lo que significa que los usuarios están incluidos a menos que activamente desactiven el interruptor. Para renunciar, los usuarios deben navegar a la configuración de privacidad y desactivar el interruptor. Si los usuarios no renuncian, la política se aplica a todas las conversaciones nuevas y a cualquier conversación reabierta, pero no se aplica automáticamente de forma retroactiva a threads archivados antiguos a menos que esos threads se reactiven.
Extensión del Periodo de Retención de Datos
Junta con el cambio de datos de entrenamiento, Anthropic está extendiendo su período de retención de datos. Anteriormente, la mayoría de los datos de los usuarios se retendrían durante 30 días; bajo la nueva política, los datos se almacenarán durante un máximo de cinco años, independientemente de si el usuario ha optado por el entrenamiento de modelos.
Alcance de los Usuarios Afectados
La política cubre tanto a usuarios gratuitos como a usuarios de nivel comercial de Claude. Sin embargo, los usuarios comerciales que están licenciados a través de planes gubernamentales o educativos están exentos; sus conversaciones no se utilizarán para el entrenamiento de modelos. La popularidad de Claude como asistente de codificación significa que los proyectos de codificación presentados a través de la plataforma también se incluirán en el conjunto de datos de entrenamiento para los usuarios que no han renunciado.
Contexto de la Industria
Antes de esta actualización, Claude era uno de los pocos chatbots principales que no utilizaba automáticamente las conversaciones de los usuarios para el entrenamiento. En contraste, ChatGPT de OpenAI y Gemini de Google utilizan de forma predeterminada el entrenamiento de modelos en cuentas personales a menos que los usuarios elijan renunciar. El cambio coloca a Anthropic en línea con las prácticas de la industria respecto al uso de datos para la mejora de los modelos de IA.
Qué Pueden Hacer los Usuarios
Los usuarios que deseen mantener sus interacciones con Claude privadas deben localizar el interruptor "Ayuda a mejorar Claude" en la configuración de privacidad y desactivarlo. Aquellos interesados en consideraciones de privacidad más amplias pueden consultar guías que describen los procedimientos de renuncia para varios servicios de IA.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas