Confronto da Anthropic com o Pentágono sobre Política de Uso de IA
Contexto
A Anthropic, conhecida por seu modelo de IA Claude, assinou um contrato de $200 milhões com o Departamento de Defesa no ano passado. O acordo incorpora a "política de uso aceitável" da empresa, que proíbe o uso de sua tecnologia para operações cinéticas autônomas e vigilância doméstica em massa.
Posição do Pentágono
O Pentágono, liderado pelo Subsecretário de Defesa para Pesquisa e Engenharia Emil Michael, está pressionando por uma cláusula de "qualquer uso legal" que daria ao militar carta branca para empregar os serviços da Anthropic em qualquer capacidade, incluindo vigilância em massa e armas letais autônomas.
Linhagens Vermelhas da Anthropic
A Anthropic deixou claro que não atenderá a pedidos que conflitem com sua política. A empresa cita diretrizes existentes do DoD que exigem julgamento humano no uso da força e proíbem a coleta de inteligência sobre pessoas nos EUA sem autoridade legal específica.
Consequências Potenciais
Se o Pentágono classificar a Anthropic como um risco na cadeia de suprimentos, o contrato de $200 milhões pode ser rescindido e os contratantes de defesa que dependem do Claude podem ser forçados a remover a tecnologia de seus sistemas. Isso teria um efeito em cascata em toda a indústria de defesa, que atualmente usa o modelo da Anthropic para trabalhos classificados.
Reação da Indústria
Outras empresas de IA, como OpenAI, xAI e Google, já renegociaram seus próprios contratos com o Pentágono para alinhar com a linguagem de "qualquer uso legal". No entanto, a posição da Anthropic atraiu críticas e apoio de vários trabalhadores de tecnologia e especialistas em políticas, destacando o debate mais amplo sobre o uso responsável de IA em contextos de segurança nacional.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas