Grupo Não Autorizado Consegue Acesso à Ferramenta de Segurança Cibernética Mythos da Anthropic, Diz Relatório
O Bloomberg relata que um fórum online privado conseguiu obter a ferramenta de segurança de IA da Anthropic, Mythos, pouco após sua divulgação pública. O grupo, cujos membros se reúnem em um canal do Discord dedicado a modelos de IA não lançados, aproveitou o acesso concedido a um contratante terceirizado que presta serviços para a Anthropic. Ao explorar essa posição, os participantes do fórum foram capazes de executar o Mythos e compartilhar capturas de tela e uma demonstração ao vivo com o Bloomberg.
O porta-voz da Anthropic confirmou que a empresa está "investigando um relatório que alega acesso não autorizado ao Claude Mythos Preview por meio de um de nossos ambientes de fornecedores terceirizados". A empresa acrescentou que, até o momento, não encontrou evidências de que a atividade alegada tenha impactado os sistemas ou dados da Anthropic.
De acordo com a fonte do Bloomberg, os usuários não autorizados adivinharam a localização online do modelo com base nas convenções de nomenclatura da Anthropic para outros modelos. Sua motivação parece ser curiosidade, e não sabotagem; uma fonte disse ao Bloomberg que o grupo está "interessado em brincar com novos modelos, e não em causar estragos com eles". No entanto, a capacidade de executar o Mythos fora do pool de fornecedores pretendido levanta bandeiras vermelhas para a Anthropic, que comercializou a ferramenta como um ativo defensivo para a segurança corporativa.
O Mythos foi lançado sob o Projeto Glasswing da Anthropic para um conjunto limitado de parceiros, incluindo a Apple, para evitar o mau uso por atores ruins. A IA é divulgada como um poderoso aliado para as equipes de segurança de empresas, capaz de detectar e responder a ameaças em tempo real. A Anthropic alertou que, nas mãos erradas, as mesmas capacidades poderiam ser armadas contra as próprias organizações que visa proteger.
A violação destaca os desafios de segurança de ferramentas de IA que dependem de ecossistemas terceirizados. Embora os processos de verificação da Anthropic provavelmente tenham incluído salvaguardas contratuais, o incidente mostra que um único fornecedor comprometido pode abrir uma porta de acesso a tecnologia sofisticada. Especialistas em segurança observam que, à medida que os modelos de IA se tornam mais integrais à infraestrutura crítica, os riscos da cadeia de suprimentos exigirão uma vigilância mais rigorosa.
A Anthropic não divulgou se suspenderá o acesso do contratante comprometido ou emitirá um recall mais amplo do Mythos. As próximas etapas da empresa provavelmente envolverão uma auditoria minuciosa de suas práticas de gerenciamento de fornecedores e possivelmente controles mais rigorosos sobre a distribuição de modelos.
Por enquanto, o incidente permanece sob investigação, e a Anthropic não relatou nenhum dano concreto ou perda de dados decorrente do uso não autorizado. O episódio serve como uma história de advertência para as empresas que correm para implantar soluções de segurança de IA avançadas sem considerar plenamente as vulnerabilidades introduzidas por parceiros externos.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas