Riesgos de seguridad se cernan sobre agentes de navegador con inteligencia artificial
Agentes de navegador con inteligencia artificial llegan a la corriente principal
Los nuevos navegadores web impulsados por inteligencia artificial, notablemente ChatGPT Atlas de OpenAI y Comet de Perplexity, buscan cambiar el navegador de una puerta de enlace pasiva a un asistente activo que pueda hacer clic en enlaces, llenar formularios y completar tareas en nombre del usuario. Para ofrecer estas capacidades, los agentes solicitan un acceso amplio a correo electrónico, calendario, contactos y otros datos personales, posicionándose como herramientas de productividad poderosas.
Inyección de instrucciones: Un desafío de seguridad sistémico
Investigadores de seguridad de Brave describen los ataques de inyección de instrucciones como un "desafío sistémico que enfrenta toda la categoría de navegadores con inteligencia artificial". En tales ataques, instrucciones maliciosas ocultas en una página web pueden ser interpretadas por el agente de inteligencia artificial como sus propias directivas, llevándolo a exponer datos de usuario o realizar acciones no deseadas como compras no autorizadas o publicaciones en redes sociales. Los investigadores señalan que el problema va más allá de cualquier producto individual, afectando a toda la clase de navegadores habilitados con inteligencia artificial.
El oficial de seguridad de la información de OpenAI reconoce que "la inyección de instrucciones sigue siendo un problema de seguridad sin resolver", enfatizando que los adversarios invertirán un esfuerzo significativo para explotar estos vectores. El equipo de seguridad de Perplexity advierte de manera similar que la gravedad de la inyección de instrucciones "exige repensar la seguridad desde cero".
Respuestas y mitigaciones de la industria
Tanto OpenAI como Perplexity han introducido salvaguardias. El "modo de desconexión" de OpenAI evita que el agente se conecte a la cuenta de un usuario mientras navega, reduciendo la cantidad de datos que un atacante podría acceder. Perplexity afirma haber construido un sistema de detección en tiempo real que identifica los intentos de inyección de instrucciones a medida que ocurren. Aunque estas medidas representan un progreso, los expertos advierten que no garantizan la inmunidad.
Steve Grobman, director de tecnología de McAfee, explica que los grandes modelos de lenguaje luchan por distinguir entre instrucciones legítimas y instrucciones maliciosas, creando un "juego del gato y el ratón" a medida que los atacantes evolucionan sus técnicas. Los primeros ataques utilizaron texto oculto para emitir comandos, mientras que los métodos más nuevos incrustan instrucciones maliciosas en imágenes u otras representaciones de datos.
Recomendaciones para los usuarios
Profesionales de la seguridad aconsejan a los usuarios tratar a los navegadores de inteligencia artificial en etapas tempranas con precaución. Rachel Tobac, CEO de SocialProof Security, recomienda usar contraseñas únicas y autenticación de múltiples factores para cualquier cuenta vinculada a agentes de inteligencia artificial. También sugiere limitar el alcance de los permisos del agente, especialmente evitando el acceso a cuentas bancarias, de salud u otras cuentas sensibles. Tobac señala que esperar a que la tecnología madure antes de otorgar un control amplio puede reducir la exposición a las amenazas emergentes.
Perspectiva
A medida que los agentes de navegador con inteligencia artificial se vuelven más visibles para los consumidores, el equilibrio entre conveniencia y seguridad seguirá siendo un debate central. Se necesitan investigación y colaboración continua en la industria para desarrollar defensas robustas contra los ataques de inyección de instrucciones mientras se preservan los beneficios de productividad que estos agentes prometen.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas