Voltar

Anthropic Revisa Compromisso de Segurança, Muda para Relatórios de Transparência

Mudança de Política Longe de Garantias de Segurança Pré-Lançamento

A Anthropic anunciou que não prometerá mais pausar o treinamento ou a liberação de sistemas de IA de fronteira, a menos que possa garantir que todas as mitigações de segurança estejam em vigor antes. O compromisso original, introduzido em 2023, havia distinguido a empresa por efetivamente barrar o avanço além de certos níveis de capacidade sem salvaguardas pré-definidas.

Novo Quadro Focado em Transparência e Planos de Segurança

De acordo com a Política de Escala Responsável revisada, a Anthropic publicará planos de segurança de fronteira detalhados que delineiam marcos de segurança planejados. Ela também emitirá relatórios de risco regulares que avaliam as capacidades do modelo e ameaças potenciais. A empresa afirma que essas medidas criarão pressão interna para priorizar a pesquisa de mitigação, permitindo que ela permaneça competitiva em um mercado em rápida evolução.

Raciocínio Executivo e Pressão do Mercado

Líderes da empresa descrevem a mudança como uma resposta pragmática a um mercado definido por iteração rápida e urgência geopolítica. Eles argumentam que a restrição unilateral não faz mais sentido quando os concorrentes estão avançando rapidamente e que um quadro mais flexível se alinha melhor com as realidades comerciais.

Críticos e Chamadas para Regulação

Observadores da indústria e grupos de monitoramento independentes criticam a mudança, observando que a promessa central de garantir a segurança antes do lançamento foi removida. Eles sustentam que os compromissos voluntários podem ser reescritos e que a supervisão regulatória em tempo real é necessária para garantir padrões de segurança significativos.

Implicações para os Usuários e o Cenário de IA

Para os usuários comuns, a mudança de política pode não ser imediatamente visível, mas influencia como os sistemas de IA são treinados, avaliados e implantados. A mudança reflete uma recalibração mais ampla dentro do setor de IA, onde as empresas equilibram preocupações de segurança com a pressão para inovar e capturar participação de mercado.

Compromisso Contínuo da Anthropic com a Segurança

Embora a pré-condição rigorosa tenha sido abandonada, a Anthropic mantém que igualará ou excederá os esforços de segurança dos concorrentes e adiará o desenvolvimento se identificar risco catastrófico significativo. A empresa também contribuiu com $20 milhões para um grupo de ação política que apoia a regulação de segurança de IA, sublinhando a relação complexa entre as ações da indústria e a defesa de políticas.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: