Anthropic Expande Uso de Dados do Claude e Oferece Opção de Desvinculação para Usuários
Mudança de Política e Racional
A Anthropic está preparando para incorporar conversas de usuários com seu chatbot Claude, bem como tarefas de codificação realizadas dentro da ferramenta, nos dados de treinamento para futuros grandes modelos de linguagem. A empresa explicou que os grandes modelos de linguagem requerem conjuntos de dados extensos e que as interações do mundo real fornecem insights valiosos sobre quais respostas são mais úteis e precisas para os usuários. Isso representa uma mudança em relação à posição anterior da Anthropic, onde as conversas dos usuários não eram automaticamente usadas para treinamento de modelos.
Cronograma de Implementação
A política de privacidade atualizada está programada para entrar em vigor em 8 de outubro. A mudança foi originalmente programada para 28 de setembro, mas foi adiada para dar aos usuários mais tempo para revisar os novos termos. Gabby Curtis, uma porta-voz da Anthropic, indicou que o atraso foi feito para garantir uma transição técnica suave.
Mecanismo de Desvinculação
Novos usuários do Claude encontrarão um prompt de decisão durante o processo de inscrição, enquanto os usuários existentes podem ver uma janela pop-up que descreve as mudanças. A configuração padrão, rotulada como "Ajude a melhorar o Claude", está ativada, o que significa que os usuários estão optados por participar, a menos que eles ativamente desativem o toggle. Para optar por não participar, os usuários devem navegar até as Configurações de Privacidade e desativar o toggle. Se os usuários não optarem por não participar, a política se aplica a todas as novas conversas e a qualquer conversa reaberta, mas não se aplica automaticamente a threads arquivadas mais antigas, a menos que essas threads sejam reativadas.
Extensão do Período de Retenção de Dados
Além da mudança nos dados de treinamento, a Anthropic está extendendo seu período de retenção de dados. Anteriormente, a maioria dos dados dos usuários era retida por 30 dias; sob a nova política, os dados serão armazenados por até cinco anos, independentemente de o usuário ter optado por participar do treinamento de modelos ou não.
Escopo de Usuários Afetados
A política abrange tanto usuários gratuitos quanto usuários pagantes de nível comercial do Claude. No entanto, usuários comerciais que são licenciados por meio de planos governamentais ou educacionais estão isentos; suas conversas não serão usadas para treinamento de modelos. A popularidade do Claude como assistente de codificação significa que projetos de codificação enviados por meio da plataforma também serão incluídos no conjunto de dados de treinamento para usuários que não optaram por não participar.
Contexto da Indústria
Antes dessa atualização, o Claude era um dos poucos chatbots principais que não usava automaticamente as conversas dos usuários para treinamento. Em contraste, o ChatGPT da OpenAI e o Gemini do Google usam o treinamento de modelos em contas pessoais, a menos que os usuários escolham optar por não participar. A mudança coloca a Anthropic em linha com as práticas da indústria em relação ao uso de dados para melhoria de modelos de IA.
O que os Usuários Podem Fazer
Os usuários que desejam manter suas interações com o Claude privadas devem localizar o toggle "Ajude a melhorar o Claude" nas Configurações de Privacidade e desativá-lo. Aqueles interessados em considerações de privacidade mais amplas podem consultar guias que descrevem procedimentos de desvinculação para vários serviços de IA.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas