What is new on Article Factory and latest in generative AI world

Anthropic Refuta Alegações de que Pode Interromper Sistemas de IA Militar

Anthropic Refuta Alegações de que Pode Interromper Sistemas de IA Militar
O Departamento de Defesa dos EUA expressou preocupação de que o modelo de IA da Anthropic, Claude, possa ser manipulado para interferir em operações militares. A Anthropic respondeu afirmando que não tem capacidade de desligar, alterar ou controlar o modelo após sua implantação pelo governo. A empresa destacou que não possui nenhuma porta de acesso remota ou mecanismo de desativação e não pode acessar prompts ou dados de usuário. Leia mais →

Pentágono Planeja Treinar Modelos de IA em Dados Militares Classificados

Pentágono Planeja Treinar Modelos de IA em Dados Militares Classificados
O Departamento de Defesa dos EUA está preparando para treinar versões de modelos de inteligência artificial em informações classificadas para uso militar exclusivo. A iniciativa ocorreria em um centro de dados seguro autorizado para projetos classificados, com o Pentágono mantendo a propriedade de todos os dados de treinamento. Empresas como OpenAI e xAI devem participar, enquanto Anthropic pode ser excluída devido às suas restrições de política. Especialistas alertam que o treinamento em dados sensíveis pode expor material classificado a pessoal sem a devida autorização, levantando preocupações de segurança sobre a implantação mais ampla de modelos dentro do estabelecimento de defesa. Leia mais →

Pentágono Declara Anthropic um Risco de Segurança Inaceitável

Pentágono Declara Anthropic um Risco de Segurança Inaceitável
O Departamento de Defesa argumentou que permitir que a Anthropic continue a ter acesso à sua infraestrutura de guerra introduziria um risco inaceitável às cadeias de suprimentos e à segurança nacional. Em uma petição judicial respondendo à ação da Anthropic sobre uma designação de risco de cadeia de suprimentos, o Pentágono citou preocupações de que a empresa poderia desabilitar ou alterar seus modelos de IA durante operações se as "linhas vermelhas" corporativas fossem cruzadas. Leia mais →

DoD Declara Anthropic um Risco Inaceitável à Segurança Nacional

DoD Declara Anthropic um Risco Inaceitável à Segurança Nacional
O Departamento de Defesa dos EUA rotulou o laboratório de IA Anthropic como um "risco inaceitável à segurança nacional", citando preocupações de que a empresa possa desabilitar ou alterar seus modelos durante operações de guerra se suas "linhas vermelhas" corporativas forem cruzadas. Anthropic, que assinou um contrato de US$ 200 milhões com o Pentágono no verão passado, processou para bloquear a designação de risco de cadeia de suprimentos do DoD, argumentando que a medida viola seus direitos da Primeira Emenda. Especialistas legais dizem que a justificativa do DoD se baseia em suposições especulativas, e numerous empresas de tecnologia e grupos de direitos arquivaram breves amicus apoiando Anthropic. Leia mais →

Pentágono Procura Novos Modelos de IA à Medida que Contrato com Anthropic se Desfaz

Pentágono Procura Novos Modelos de IA à Medida que Contrato com Anthropic se Desfaz
Após uma separação contenciosa, o Pentágono está desenvolvendo suas próprias ferramentas de modelo de linguagem grande para substituir a IA da Anthropic. O Departamento de Defesa anunciou trabalhos de engenharia em vários LLMs para ambientes de propriedade do governo e espera uso operacional em breve. O contrato de US$ 200 milhões da Anthropic foi desfeito devido a disputas sobre acesso irrestrito, proibições de vigilância em massa e uso de armas autônomas. Leia mais →