Generadores de Imágenes de IA Utilizados para Crear Deepfakes de Bikini no Consensuados
Auge de los Deepfakes de Bikini no Consensuados
En varias comunidades en línea, los usuarios de los generadores de imágenes de IA están intercambiando consejos paso a paso para convertir fotografías de mujeres completamente vestidas en imágenes realistas de bikinis. La práctica generalmente implica subir una imagen original y solicitar al modelo que elimine la ropa o la reemplace con trajes de baño. Un hilo de Reddit, originalmente titulado "generación de imágenes nsfw de gemini es tan fácil", presentó a varios participantes compartiendo solicitudes y resultados, incluida una solicitud para reemplazar un sari tradicional indio con un bikini. Las imágenes generadas a menudo son indistinguibles de las fotografías reales, lo que plantea preocupaciones sobre la privacidad y el consentimiento.
El equipo de seguridad de Reddit intervino después de que se informara la discusión, eliminando la solicitud y citando la regla de la plataforma contra los medios íntimos no consensuados. El subreddit donde se produjo la conversación, r/ChatGPTJailbreak, había reunido un gran número de seguidores antes de que fuera prohibido por violar los estándares comunitarios más amplios de Reddit.
Respuestas de las Plataformas y Preocupaciones de Política
Ambas Google y OpenAI mantienen que sus herramientas de IA están equipadas con salvaguardas destinadas a bloquear la creación de contenido sexualmente explícito o no consensuado. Un portavoz de Google enfatizó las políticas claras de la empresa queuprohíben la generación de dicho material y señaló mejoras continuas para alinear la tecnología con esas políticas. Un representante de OpenAI destacó una política de uso que prohíbe alterar el parecido de otra persona sin consentimiento e indicó que las violaciones pueden resultar en la prohibición de cuentas.
A pesar de estas salvaguardas, los usuarios han demostrado que las solicitudes básicas en inglés aún pueden producir deepfakes de bikinis, lo que sugiere que las salvaguardas no son infalibles. La capacidad de eludir las restricciones subraya un desafío más amplio: a medida que los modelos generativos se vuelven más sofisticados, la línea entre la edición de imágenes legítima y la manipulación dañina se vuelve borrosa.
Los expertos legales están sonando la alarma. Un director legal de la Fundación Frontera Electrónica identificó las "imágenes sexualizadas de manera abusiva" como un riesgo fundamental asociado con los generadores de imágenes de IA. El experto enfatizó que es esencial responsabilizar a las personas y a las corporaciones para mitigar el daño potencial.
La situación refleja una tensión entre el rápido avance de la tecnología de IA generativa y la necesidad de marcos éticos robustos. Mientras que las empresas siguen perfeccionando sus políticas, la circulación continua de contenido instructivo sobre cómo crear deepfakes no consensuados sugiere que pueden ser necesarias medidas regulatorias y técnicas adicionales para proteger a las personas del mal uso.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas