Atrás

Google Advierte sobre Ataques a Gran Escala de Extracción de Modelos de IA que Apuntan a Gemini

Google Advierte sobre Ataques a Gran Escala de Extracción de Modelos de IA que Apuntan a Gemini

El Informe de Threat Tracker de Google Destaca el Robo de Modelos de IA

En un informe de Threat Tracker recientemente lanzado, Google reveló que los hackers están ejecutando "ataques de destilación" a gran escala dirigidos a su modelo de inteligencia artificial Gemini. El informe detalla un incidente específico en el que se utilizaron más de 100,000 solicitudes de IA para explorar las capacidades de Gemini, con el propósito de extraer el conocimiento subyacente del modelo y reproducirlo en un sistema separado.

Los atacantes parecen estar operando desde varios países, incluyendo Corea del Norte, Rusia y China. Google clasifica estas actividades como ataques de extracción de modelos, una técnica donde un adversario aprovecha el acceso legítimo a un modelo de aprendizaje automático maduro, consultándolo sistemáticamente para cosechar información que se puede utilizar para entrenar un nuevo modelo. Este enfoque permite efectivamente a los ladrones clonar el rendimiento del modelo original sin comprometer directamente los datos de los usuarios.

Según el informe, el objetivo principal de estos ataques no es el usuario final, sino más bien el ecosistema más amplio de proveedores de servicios y desarrolladores de IA. Google enfatiza que, aunque la actividad actual no plantea una amenaza inmediata para sus clientes, sí plantea preocupaciones significativas para las empresas que invierten mucho en la construcción y afinación de grandes modelos de lenguaje. El robo de propiedad intelectual podría permitir a los competidores lanzar ofertas casi idénticas a una fracción del costo de desarrollo.

John Hultquist, analista principal del Grupo de Inteligencia de Amenazas de Google, describió la situación como un "canario en la mina de carbón", sugiriendo que Google puede ser una de las primeras empresas importantes en enfrentar este tipo de robo de IA, pero que es probable que sigan muchos más incidentes. El informe sitúa estos ataques dentro de un patrón más amplio de amenazas cibernéticas relacionadas con la IA, observando que la guerra sobre los modelos avanzados se ha intensificado en múltiples frentes.

Los desarrollos recientes en el campo de la IA subrayan la presión competitiva que impulsa este robo. Las empresas chinas, incluyendo ByteDance, han introducido herramientas de generación de video sofisticadas, mientras que DeepSeek, otra empresa de IA china, lanzó un modelo que rivalizaba con las tecnologías líderes de EE. UU. OpenAI había acusado previamente a DeepSeek de entrenar su modelo en tecnología existente de una manera similar a las tácticas descritas en el informe de Google.

Los hallazgos de Google sirven como una advertencia a la comunidad de IA sobre el riesgo emergente de la extracción de modelos. La empresa insta a los desarrolladores a implementar un monitoreo y controles de acceso robustos, y a considerar medidas defensivas como la marca de agua de las salidas del modelo y limitar el volumen de preguntas desde una sola fuente. A medida que los sistemas de IA se vuelven más integrales para una amplia gama de aplicaciones, proteger la propiedad intelectual que los sustenta será esencial para mantener un panorama tecnológico competitivo y seguro.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: