Voltar

Tesouro e Fed Pedem que Grandes Bancos Testem a Ferramenta de Vulnerabilidade de IA da Anthropic, o Modelo Mythos

Os principais reguladores financeiros de Washington reuniram os CEOs e os principais oficiais de risco dos maiores bancos dos Estados Unidos para uma rara briefing off-the-record na quinta-feira. O secretário do Tesouro, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, usaram a sessão para promover o modelo Mythos, recentemente anunciado pela Anthropic, um sistema de IA gerativa que, de acordo com a empresa, se destaca em identificar vulnerabilidades de segurança ocultas.

O JPMorgan Chase foi nomeado a primeira instituição a receber acesso direto ao Mythos. Em questão de horas, representantes do Goldman Sachs, Citigroup, Bank of America e Morgan Stanley confirmaram que também estavam avaliando a ferramenta. Os bancos, ainda se recuperando de recentes ataques cibernéticos ao setor financeiro, acolheram a perspectiva de uma camada adicional de defesa.

A Anthropic, uma startup de IA em crescimento rápido, descreveu o Mythos como um modelo "de propósito geral" que não foi treinado especificamente para segurança cibernética. No entanto, testes iniciais mostraram que o sistema pode sinalizar falhas de código, configurações erradas e outras exposições que os scanners tradicionais perdem. A empresa tem distribuição limitada por enquanto, citando preocupações de que o uso irrestrito possa revelar informações sensíveis sobre sua arquitetura subjacente.

Observadores da indústria estão divididos. Alguns veem o impulso do Tesouro e do Fed como um passo pragmático para reforçar a resiliência cibernética financeira da nação. Outros suspeitam que a medida é uma tática de vendas astuta projetada para garantir contratos de empresa de alto valor antes que os concorrentes catchem.

A reunião ocorre em meio a uma batalha legal mais ampla entre a Anthropic e a administração Trump. O Departamento de Defesa recentemente rotulou a empresa como um "risco de cadeia de suprimentos", uma designação que a empresa está contestando na justiça. A medida do DoD seguiu-se a um colapso nas discussões sobre a insistência da Anthropic em restringir como as agências governamentais poderiam implantar seus modelos.

Além do Atlântico, os reguladores financeiros do Reino Unido também estão avaliando os riscos impostos pelo Mythos. O Financial Times informou que funcionários do Banco da Inglaterra e da Autoridade de Conduta Financeira estão examinando se a capacidade do modelo de descobrir vulnerabilidades poderia ser utilizada ou expor inadvertidos dados proprietários.

Executivos de banco que participaram da briefing enfatizaram que qualquer nova tecnologia deve ser rigorosamente verificada. "Estamos interessados em ferramentas que possam nos dar uma vantagem contra ameaças sofisticadas", disse um oficial de risco sênior de um grande banco, que pediu para permanecer anônimo. "Mas também precisamos entender os trade-offs, especialmente em torno da privacidade de dados e transparência do modelo".

O CEO da Anthropic, Dario Amodei, defendeu o potencial do modelo, observando que o Mythos foi projetado para complementar pilhas de segurança existentes, não substituí-las. "Nosso objetivo é empoderar as organizações a encontrar problemas ocultos mais rapidamente", disse ele a repórteres após o anúncio. "Estamos trabalhando em estreita colaboração com parceiros para garantir a implantação responsável".

Criticos advertiram que confiar em um sistema de IA proprietário poderia criar uma nova concentração de risco. Se vários bancos dependem do mesmo modelo, uma falha ou porta de trás no Mythos poderia se espalhar por todo o sistema financeiro. Reguladores parecem cientes dessa possibilidade, o que levou à reunião de alto nível para discutir mecanismos de supervisão.

À medida que a fase de piloto se expande, os bancos participantes compartilharão descobertas com o Tesouro e o Fed, que planejam compilar um relatório sobre a eficácia do modelo e quaisquer preocupações emergentes. As agências não se comprometeram a tornar obrigatório o uso do Mythos, mas o endosso sinaliza uma disposição para explorar ferramentas de ponta na luta contra ameaças cibernéticas.

O resultado da ação judicial da Anthropic pode moldar o futuro da implantação de IA em infraestruturas críticas. Um veredicto favorável pode abrir a porta para uma adoção mais ampla pelo governo, enquanto um revés pode reforçar a posição da empresa sobre limitar o acesso. De qualquer forma, a conversa iniciada em Washington esta semana destaca a crescente interseção entre inovação em IA, segurança nacional e estabilidade financeira.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: