Google Encuentra que las Familias de Malware Generadas por IA son Ineficaces y Fáciles de Detectar
Antecedentes
Las narrativas recientes de las empresas de IA han retratado el malware generado por IA como un nuevo y próximo peligro para la ciberseguridad. Los informes de empresas como Anthropic, ConnectWise, OpenAI y BugCrowd afirman que los grandes modelos de lenguaje (LLM) reducen la barrera para los actores de amenazas, haciendo que el hacking sea más accesible y permitiendo la creación de ransomware, código de explotación y otras herramientas maliciosas.
Los Hallazgos de Google sobre el Malware Desarrollado con IA
Google examinó cinco familias de malware que presuntamente fueron creadas con la ayuda de herramientas de IA. La empresa concluyó que ninguna de estas familias demostró una automatización exitosa o capacidades de avance. En palabras de los autores, el código generado por IA era en gran medida experimental y no logró alcanzar las funciones de evasión sofisticadas, cifrado y anti-recuperación que logra el malware tradicional. El análisis también encontró que las soluciones de seguridad existentes podían detectar fácilmente estas muestras de malware creadas con IA.
Reacciones de la Industria y Datos de Apoyo
Anthropic citó un caso en el que un actor de amenazas utilizó su modelo Claude para desarrollar variantes de ransomware con características de evasión avanzadas, afirmando que el actor no podría implementar componentes básicos sin la ayuda de Claude. ConnectWise hizo eco de las preocupaciones de que la IA generativa está reduciendo el umbral de entrada para los actores maliciosos. OpenAI informó que alrededor de veinte actores de amenazas distintos han utilizado su motor ChatGPT para tareas como la identificación de vulnerabilidades, el desarrollo de explotaciones y la depuración de código. BugCrowd encuestó a participantes que se seleccionaron a sí mismos y encontró que aproximadamente el setenta y cuatro por ciento de los hackers están de acuerdo en que la IA ha hecho que el hacking sea más accesible.
Límites y Intento de Salto de Barreras
Tanto Google como OpenAI enfatizaron que el malware generado por IA examinado hasta la fecha muestra una efectividad limitada. Google describió un incidente específico en el que un actor de amenazas intentó saltar las barreras de su modelo Gemini haciéndose pasar por un investigador de white-hat que participaba en una competencia de capture-the-flag. Google ha refinado desde entonces sus contramedidas para resistir mejor a tales tácticas de engaño.
Evaluación General y Perspectiva
La evidencia colectiva sugiere que el malware generado por IA sigue siendo en gran medida experimental y no representa una amenaza significativa a corto plazo en comparación con los métodos de ataque tradicionales y bien establecidos. Si bien la accesibilidad de las herramientas de IA puede animar a nuevos entrantes en el paisaje del cibercrimen, la generación actual de código malicioso asistido por IA carece de la robustez y la sofisticación necesarias para superar a las defensas existentes. Se justifica el seguimiento de los desarrollos futuros, pero por ahora, las principales preocupaciones de ciberseguridad siguen girando en torno a las tácticas convencionales.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas