What is new on Article Factory and latest in generative AI world

Juíza Considera Movimento do Pentágono para Rotular a Anthropic como Risco na Cadeia de Suprimentos como 'Tentativa de Paralisar' a Empresa

Juíza Considera Movimento do Pentágono para Rotular a Anthropic como Risco na Cadeia de Suprimentos como 'Tentativa de Paralisar' a Empresa
Durante uma audiência, a juíza do Tribunal Distrital dos EUA, Rita Lin, questionou a decisão do Departamento de Defesa de rotular a desenvolvedora de IA Anthropic como risco na cadeia de suprimentos, descrevendo-a como uma aparente tentativa de paralisar a empresa após ela buscar limites para o uso militar de sua ferramenta Claude. A Anthropic entrou com processos alegando retaliação ilegal, e a juíza está considerando uma injunção temporária que poderia pausar a designação. Leia mais →

Japão Aprova Operações Cibernéticas Ofensivas para as Forças de Autodefesa

Japão Aprova Operações Cibernéticas Ofensivas para as Forças de Autodefesa
O governo japonês anunciou uma reinterpretação do Artigo 9 que permitirá às Forças de Autodefesa realizar operações cibernéticas ofensivas contra infraestruturas utilizadas em ataques cibernéticos. A mudança, efetiva a partir de 1 de outubro de 2026, será supervisionada por um comitê de gestão cibernética do governo que autorizará ações caso a caso. Oficiais descreveram a medida como uma resposta ao ambiente de segurança nacional mais complicado desde a Segunda Guerra Mundial e parte de uma tendência global em que as nações veem a ofensiva cibernética como um complemento necessário à defesa. Leia mais →

Pentágono Planeja Treinar Modelos de IA em Dados Militares Classificados

Pentágono Planeja Treinar Modelos de IA em Dados Militares Classificados
O Departamento de Defesa dos EUA está preparando para treinar versões de modelos de inteligência artificial em informações classificadas para uso militar exclusivo. A iniciativa ocorreria em um centro de dados seguro autorizado para projetos classificados, com o Pentágono mantendo a propriedade de todos os dados de treinamento. Empresas como OpenAI e xAI devem participar, enquanto Anthropic pode ser excluída devido às suas restrições de política. Especialistas alertam que o treinamento em dados sensíveis pode expor material classificado a pessoal sem a devida autorização, levantando preocupações de segurança sobre a implantação mais ampla de modelos dentro do estabelecimento de defesa. Leia mais →

Pentágono Declara Anthropic um Risco de Segurança Inaceitável

Pentágono Declara Anthropic um Risco de Segurança Inaceitável
O Departamento de Defesa argumentou que permitir que a Anthropic continue a ter acesso à sua infraestrutura de guerra introduziria um risco inaceitável às cadeias de suprimentos e à segurança nacional. Em uma petição judicial respondendo à ação da Anthropic sobre uma designação de risco de cadeia de suprimentos, o Pentágono citou preocupações de que a empresa poderia desabilitar ou alterar seus modelos de IA durante operações se as "linhas vermelhas" corporativas fossem cruzadas. Leia mais →

DoD Declara Anthropic um Risco Inaceitável à Segurança Nacional

DoD Declara Anthropic um Risco Inaceitável à Segurança Nacional
O Departamento de Defesa dos EUA rotulou o laboratório de IA Anthropic como um "risco inaceitável à segurança nacional", citando preocupações de que a empresa possa desabilitar ou alterar seus modelos durante operações de guerra se suas "linhas vermelhas" corporativas forem cruzadas. Anthropic, que assinou um contrato de US$ 200 milhões com o Pentágono no verão passado, processou para bloquear a designação de risco de cadeia de suprimentos do DoD, argumentando que a medida viola seus direitos da Primeira Emenda. Especialistas legais dizem que a justificativa do DoD se baseia em suposições especulativas, e numerous empresas de tecnologia e grupos de direitos arquivaram breves amicus apoiando Anthropic. Leia mais →

Departamento de Justiça Declara Anthropic Não Confiável para Uso Militar de IA

Departamento de Justiça Declara Anthropic Não Confiável para Uso Militar de IA
O Departamento de Justiça dos EUA defendeu uma decisão do Pentágono de rotular a desenvolvedora de IA Anthropic como um risco na cadeia de suprimentos, argumentando que a empresa não pode ser confiada com sistemas de guerra. A Anthropic entrou com uma ação judicial, alegando que a rotulação viola seus direitos e ameaça seus negócios, mas o governo manteve que a ação foi legal e necessária para a segurança nacional. Leia mais →