Modelo Claude Mythos da Anthropic Acessado por Usuários Não Autorizados, Confirma a Empresa
A Anthropic anunciou na segunda-feira que um punhado de usuários não autorizados tem acessado seu modelo Claude Mythos desde o dia em que a empresa abriu um programa de teste rigorosamente controlado. O modelo, divulgado como uma inovação na análise de segurança cibernética, deveria estar disponível apenas para um grupo seleto de empresas parceiras.
A Bloomberg relatou que os intrusos chegaram ao endpoint do modelo reunindo informações de duas fontes. Primeiro, uma violação separada na Mercur — uma empresa que fornece dados de treinamento de IA — expôs detalhes sobre a infraestrutura da Anthropic. Em segundo lugar, um contratante que anteriormente avaliou os modelos da Anthropic forneceu inadvertidamente conhecimento interno que ajudou os atacantes a fazer uma suposição educada sobre onde o Mythos era hospedado. O grupo não empregou um exploit sofisticado de zero-dia; em vez disso, eles aproveitaram pistas publicamente disponíveis e uma suposição sortuda, uma técnica que especialistas em segurança dizem ser rotineira na indústria.
A Anthropic confirmou a violação e disse que uma investigação interna está em andamento. A equipe de segurança da empresa, que pode registrar e rastrear o uso do modelo, admitiu que o monitoramento não foi suficiente para sinalizar o acesso não autorizado prontamente. "Estamos revisando nossos procedimentos de detecção e resposta para garantir que qualquer tentativa futura seja identificada em tempo real", disse um porta-voz.
De acordo com o pesquisador de segurança Lukasz Olejnik, o incidente ilustra uma falha previsível com a qual as empresas têm lidado por duas décadas. "É um cenário inteiramente imaginável", ele notou, enfatizando que qualquer organização que dependa de pontos de acesso controlados por humanos deve antecipar tais ataques baseados em suposições.
Embora a Anthropic comercialize o Mythos como uma ferramenta capaz de encontrar vulnerabilidades em todos os principais sistemas operacionais e navegadores da web, a Bloomberg indicou que os usuários não autorizados não estavam explorando o modelo para trabalhos de segurança cibernética. Sua motivação pareceu ser a curiosidade e o desejo de "brincar" com um sistema de IA de alto perfil, um comportamento que pode ter ajudado a evitar que a violação escalasse ainda mais.
O episódio ocorre após erros anteriores em torno do Mythos. A existência do modelo foi revelada involuntariamente em um repositório de dados não seguro no site da Anthropic, e agências dos EUA, como a NSA, obtiveram acesso apesar do modelo ser rotulado como um risco de cadeia de suprimentos. O lançamento também contornou a Agência de Segurança Cibernética e Infraestrutura (CISA), levantando preocupações sobre a coordenação com a supervisão federal de segurança cibernética.
Observadores da indústria veem a violação como um lembrete sóbrio de que mesmo as empresas que defendem a segurança da IA podem ser vítimas de negligências de segurança básicas. A fellow do Royal United Services Institute, Pia Hüsch, advertiu que o erro humano muitas vezes permanece como o elo mais fraco em qualquer cadeia de segurança. Ela acrescentou que a simplicidade da violação não diminui seu impacto; ela mostra como um conjunto modesto de pistas pode abrir uma porta para recursos de IA avançados.
As próximas etapas da Anthropic provavelmente envolverão o fortalecimento dos controles de acesso, a melhoria do monitoramento em tempo real e, possivelmente, a revisão da estratégia de lançamento do modelo. A marca da empresa, construída sobre uma reputação de rigorosos padrões de segurança, agora enfrenta escrutínio sobre se suas salvaguardas internas correspondiam à narrativa pública de um sistema de IA altamente seguro e responsavelmente implantado.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas