Atrás

Anthropic limita el acceso a Claude Mythos, su nuevo modelo de inteligencia artificial para la ciberseguridad

Anthropic lanzó Claude Mythos Preview, su modelo de inteligencia artificial más nuevo diseñado para la ciberseguridad, a un grupo selecto de clientes el martes. La lista incluye gigantes de la industria como Amazon, Apple y Microsoft, así como empresas de seguridad como Broadcom, Cisco y CrowdStrike. Anthropic dijo que el modelo permanecerá disponible solo para organizaciones que cumplan con criterios de verificación estrictos y que se están llevando a cabo conversaciones con el gobierno de los EE. UU. sobre posibles despliegues.

El anuncio llega después de dos incidentes de datos de alto perfil en la startup con sede en San Francisco. El mes pasado, una caché de datos de acceso público reveló documentos internos que describían Mythos y otros proyectos. Una semana después, el código fuente interno del modelo de asistente personal de Anthropic Claude Code se publicó en línea. Ambas filtraciones fueron atribuidas por la empresa a errores humanos, lo que plantea preocupaciones sobre sus prácticas de manejo de datos.

A pesar de los contratiempos, Anthropic dijo que Mythos ya ha estado en uso con socios durante varias semanas. El modelo se presenta como una inteligencia artificial de "propósito general" con capacidades más amplias que las ofertas anteriores, pero Anthropic es la primera en limitar su lanzamiento debido a la naturaleza dual de la tecnología. "Creemos que tecnologías como esta son lo suficientemente poderosas como para hacer mucho bien, pero también potencialmente malas si caen en las manos equivocadas", dijo Dianne Na Penn, jefa de gestión de productos e investigación en Anthropic.

Según la empresa, Mythos puede identificar vulnerabilidades de ciberseguridad a una escala que supera a los analistas humanos. Puede analizar enormes bases de código, señalar debilidades y sugerir pasos de remediación más rápido que las herramientas tradicionales. Al mismo tiempo, el mismo poder analítico podría permitir que el modelo descubra nuevas formas de explotar esas vulnerabilidades, un riesgo que Anthropic no está dispuesta a asumir con un lanzamiento público amplio.

El enfoque cauteloso de Anthropic refleja un debate creciente en la industria sobre la implementación responsable de sistemas de inteligencia artificial poderosos. Al restringir el acceso a un conjunto curado de clientes, la empresa espera dar a los adoptantes tempranos una "ventaja" en la seguridad de sus entornos mientras limita la posibilidad de que actores maliciosos obtengan las mismas capacidades.

Los clientes que reciben Mythos podrán detectar fallos de código y vectores de ataque potenciales a una escala anteriormente inalcanzable. La empresa cree que esto podría cambiar las prácticas de ciberseguridad en todos los sectores, desplazando el equilibrio hacia la defensa proactiva en lugar de la reparación reactiva.

Mientras que el lanzamiento limitado busca mitigar el mal uso, Anthropic no ha revelado un cronograma para un lanzamiento más amplio. La empresa enfatizó que el modelo permanecerá sin estar disponible para el mercado general hasta que pueda garantizar que las salvaguardias robustas estén en su lugar.

Los observadores de la industria señalan que el movimiento subraya la tensión entre la innovación y la seguridad en el desarrollo de la inteligencia artificial. A medida que más empresas exploran soluciones de seguridad impulsadas por la inteligencia artificial, la presión para equilibrar el avance rápido con consideraciones éticas probablemente se intensificará.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: