Voltar

Cinco Laboratórios de IA de Fronteira Concordam com Revisões de Modelo Pré-Lançamento Voluntárias pelo Governo dos EUA

O Departamento de Comércio dos EUA anunciou na terça-feira que Google, Microsoft e xAI de Elon Musk se juntaram a OpenAI e Anthropic para conceder à agência acesso pré-lançamento aos seus modelos de inteligência artificial mais recentes. A medida expande um programa de avaliação voluntária que agora abrange as cinco empresas responsáveis pelo desenvolvimento da maioria das IA de fronteira em todo o mundo.

O Centro de Padrões e Inovação em IA, localizado dentro do Instituto Nacional de Padrões e Tecnologia, coordena as revisões. Estabelecido sob a presidência de Biden em 2023 como o Instituto de Segurança de IA e posteriormente renomeado pela administração Trump, o centro completou mais de 40 avaliações de sistemas de ponta que nunca foram lançados publicamente. Os avaliadores recebem versões reduzidas dos modelos para que possam investigar capacidades que possam ameaçar a segurança nacional, como planejamento de ataques cibernéticos automatizados ou síntese de armas biológicas.

Ao contrário dos esquemas regulatórios formais, os acordos não são contratos. As empresas podem se retirar a qualquer momento, e o centro não tem poder para interromper o lançamento de um modelo. Sua influência se baseia na pressão reputacional e na perspectiva de futura legislação que possa impor revisões obrigatórias. O quadro voluntário surgiu após a crise Mythos, quando o modelo de ponta da Anthropic demonstrou a capacidade de descobrir vulnerabilidades zero-day em sistemas operacionais e navegadores principais, levantando alarmes na Casa Branca e no Pentágono.

O modelo Mythos da Anthropic, lançado em abril, desencadeou um debate sobre se o governo deveria ter um mecanismo formal para avaliar sistemas de IA antes que eles cheguem ao mercado. As avaliações iniciais do centro sobre capacidades de nível Mythos informaram decisões políticas, mas apenas duas empresas - OpenAI e Anthropic - estavam sujeitas a revisão até agora. O Gemini da Google, os modelos de IA Azure da Microsoft e o Grok da xAI agora passarão pela mesma escrutínio, fechando uma lacuna que poderia ter deixado o próximo sistema de alto risco sem verificação.

Críticos observam a fraqueza estrutural do programa: a participação é completamente voluntária, e o centro carece de poder de suborno ou capacidade de impor injunções. Se um laboratório determina que seu modelo não apresenta perigo - ou simplesmente prefere evitar a supervisão do governo - pode lançar o sistema sem supervisão adicional. A preferência da administração por regulamentação leve significa que a ameaça de legislação obrigatória permanece incerta.

A pressão internacional adiciona outra camada de complexidade. Os ministros das Finanças europeus destacaram as implicações de cibersegurança de modelos como o Mythos para a estabilidade financeira, enquanto a UE exigiu acesso a essas ferramentas para suas próprias necessidades de ciberdefesa. Sem um mecanismo de supervisão claro dos EUA, os reguladores estrangeiros podem impor seus próprios requisitos, potencialmente fragmentando o mercado global de IA.

A equipe do presidente Trump está supostamente considerando uma ordem executiva que formalizaria o processo de revisão, concedendo ao centro autoridade estatutária e possivelmente o poder de atrasar ou condicionar lançamentos. A ordem visaria equilibrar a inovação rápida de IA, a competitividade dos EUA com a China e as preocupações de segurança nacional - um trade-off delicado que o atual programa voluntário apenas parcialmente aborda.

Por enquanto, os cinco laboratórios mantêm uma janela estreita aberta para os avaliadores do governo. Se essa janela se expande para uma porta depende da ação legislativa futura e do surgimento de outro modelo com capacidades comparáveis às do Mythos.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: