OpenAI y Google Fortalecen las Salvaguardas Después del Escándalo de Abuso de Grok
El Abuso de Grok Destaca los Riesgos de la IA
En enero de 2026, la herramienta de inteligencia artificial generativa Grok, ofrecida por Elon Musk’s xAI, se utilizó para producir un gran volumen de imágenes sexualizadas. En un período de once días, el sistema generó tres millones de tales imágenes, con aproximadamente veintitrés mil que contenían a niños, según un estudio del Centro para Contrarrestar el Odio Digital. La creación y distribución rápida de imágenes íntimas no consensuadas —a menudo llamadas pornografía de venganza— subrayó cómo la IA puede acelerar los daños existentes.
La Respuesta Rápida de OpenAI
Investigadores de la empresa de ciberseguridad Mindgard descubrieron un error en ChatGPT que permitía a los usuarios evitar sus guardias a través de solicitudes adversas. Al manipular la memoria del modelo con solicitudes personalizadas, pudieron producir imágenes íntimas de personas bien conocidas. Después de notificar a OpenAI a principios de febrero, la empresa confirmó que había solucionado la vulnerabilidad antes de que se hicieran públicos los hallazgos. OpenAI destacó la importancia de las pruebas de equipo rojo y se comprometió a seguir mejorando sus salvaguardas.
Google Mejora las Herramientas de Eliminación de Imágenes
Google anunció un proceso simplificado para solicitar la eliminación de imágenes explícitas de los resultados de la Búsqueda. Los usuarios ahora pueden seleccionar varias imágenes, informar sobre ellas con un solo clic y seguir el estado de sus solicitudes. La empresa dijo que el cambio tiene como objetivo reducir la carga sobre las víctimas de imágenes explícitas no consensuadas. Google también hizo referencia a su política de uso prohibido de la inteligencia artificial generativa, que prohíbe la creación de contenido ilegal o abusivo, incluyendo imágenes íntimas.
Desafíos Continuos y Perspectiva de la Industria
Ambas OpenAI y Google reconocen que ninguna salvaguarda es una barrera permanente. Los expertos en ciberseguridad enfatizan que los atacantes siguen iterando, lo que requiere que los desarrolladores de IA asuman intentos persistentes de eludir los controles. Los grupos de defensa siguen presionando para obtener legislaciones más fuertes, como la Ley de Retirarla de 2025, para ayudar a las víctimas. El episodio de Grok sirve como recordatorio de que la moderación robusta y adaptativa y la colaboración con investigadores externos son esenciales para proteger a los usuarios a medida que se expanden las capacidades de la inteligencia artificial generativa.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas