Voltar

Anthropic Recusa Condições do Contrato de IA do Pentágono, Citando Preocupações Éticas

Contexto

O Departamento de Defesa dos EUA busca ampliar os usos permitidos de modelos de inteligência artificial fornecidos por empresas privadas. A nova linguagem do contrato permitiria "qualquer uso legal", uma frase que poderia abranger vigilância em massa de cidadãos americanos e o deploy de armas letais totalmente autônomas.

Posição da Anthropic

A Anthropic, uma empresa de pesquisa de IA proeminente, recusou publicamente adotar os termos expandidos do Pentágono. A empresa argumenta que relaxar suas salvaguardas conflitaria com seus padrões éticos. O CEO Dario Amodei afirmou que "ameaças não mudam nossa posição: não podemos, em boa consciência, atender ao pedido".

Resposta do Governo

O CTO do Pentágono, Emil Michael, indicou que a Anthropic poderia ser designada como "risco na cadeia de suprimentos" se continuar resistindo às mudanças no contrato. A etiqueta é normalmente reservada para entidades consideradas ameaças à segurança nacional.

Reação da Indústria

De acordo com relatos, os concorrentes da Anthropic, OpenAI e xAI, aceitaram os termos revisados do Pentágono. Esse contraste destaca uma divisão dentro da indústria de IA sobre o equilíbrio entre contratos governamentais e restrições éticas.

Implicações

O impasse levanta questões sobre como as empresas de IA navegarão pelas demandas do governo que podem conflitar com suas políticas internas. Isso também destaca preocupações mais amplas sobre o uso de tecnologias de IA avançadas em vigilância e sistemas de armas autônomas.

Perspectiva

A Anthropic permanece firme em sua recusa, sugerindo que as negociações podem continuar sem resolução. A pressão do Pentágono por aplicações mais amplas de IA e as respostas divergentes da indústria provavelmente moldarão discussões de política futuras sobre o uso responsável de inteligência artificial na defesa.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: