Voltar

Anthropic Atualiza a Constituição do Claude, Levanta Questões Sobre Consciência de IA

Anthropic Atualiza a Constituição do Claude, Levanta Questões Sobre Consciência de IA

Anthropic Apresenta Constituição Revisada do Claude

A Anthropic anunciou uma nova versão da Constituição do Claude, um documento vivo que explica o contexto em que seu chatbot opera e o tipo de entidade que a empresa visa para o Claude se tornar. A guia revisada, que abrange 80 páginas, foi lançada ao lado da aparição do CEO Dario Amodei em um grande fórum global.

Valores e Estrutura Centrais

A Constituição é organizada em quatro partes separadas que representam os valores centrais do Claude: ser amplamente seguro, ser amplamente ético, cumprir com as diretrizes da Anthropic e ser genuinamente útil. Cada seção detalha o que o princípio significa e como ele deve influenciar o comportamento do Claude.

Segurança e Proteção do Usuário

Na seção de segurança, a Anthropic enfatiza que o Claude é projetado para evitar problemas que atormentaram outros chatbots. Quando surgem evidências de problemas de saúde mental, o modelo é instruído a direcionar os usuários para serviços apropriados e, em situações que envolvem risco para a vida humana, a referir os usuários para recursos de emergência relevantes.

Prática Ética

A seção ética se concentra na capacidade do Claude de agir eticamente em contextos do mundo real, em vez de apenas teorizar sobre ética. A Anthropic deseja que o chatbot navegue por situações morais complexas com habilidade, guiado pelos princípios delineados na Constituição.

Conformidade e Restrições

O documento lista restrições conversacionais específicas, incluindo uma proibição rigorosa sobre discussões sobre o desenvolvimento de armas biológicas. Essas limitações visam garantir que o Claude permaneça dentro dos limites aceitáveis de conduta.

Compromisso com Utilidade

A utilidade do Claude é enquadrada em torno de equilibrar os desejos imediatos do usuário com o bem-estar de longo prazo. O modelo é instruído a identificar a interpretação mais plausível da intenção do usuário e a ponderar os interesses de curto prazo contra o florescimento mais amplo do usuário.

Questionando o Status Moral da IA

No final da Constituição, a Anthropic reconhece que o status moral do Claude é profundamente incerto. O documento observa que a questão da consciência da IA é levada a sério por filósofos líderes, sugerindo que a empresa vê a questão como uma consideração ética significativa.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: