Atrás

La aplicación de deepfake Sora de OpenAI genera preocupaciones sobre confianza y desinformación

La aplicación de deepfake Sora de OpenAI genera preocupaciones sobre confianza y desinformación

¿Qué hace Sora?

La herramienta de video de inteligencia artificial de OpenAI, Sora, es un generador de videos de alta resolución con audio sincronizado. Una función destacada llamada "cameo" permite a los usuarios colocar la semejanza de cualquier persona en prácticamente cualquier escena, lo que resulta en videos que parecen sorprendentemente realistas.

Medidas de seguridad integradas

Cada video exportado desde la aplicación Sora para iOS incluye una marca de agua con un logotipo de nube blanca en movimiento. Además, los videos llevan metadatos C2PA que indican que el contenido fue "emitido por OpenAI" y lo marcan como generado por IA. Los usuarios pueden verificar esta información con la herramienta de verificación de la Iniciativa de Autenticidad de Contenido.

Desafíos en la detección

Aunque las marcas de agua y los metadatos proporcionan pistas, no son infalibles. Las marcas de agua se pueden eliminar con aplicaciones especializadas y los metadatos pueden alterarse o eliminarse cuando los videos se procesan a través de herramientas de terceros. Otros generadores de video de IA, como Midjourney, no incrustan las mismas señales de detección, lo que hace más difícil identificar sus salidas.

Respuestas de las plataformas

Las redes sociales están introduciendo sus propios sistemas de etiquetado. Las plataformas de Meta, TikTok y YouTube tienen políticas para marcar el contenido generado por IA, aunque las etiquetas no garantizan detectar todos los casos. La divulgación más confiable sigue viniendo del creador, que puede agregar una etiqueta o subtítulo que indica el origen de IA del video.

Preocupaciones de la industria

Los expertos destacan el riesgo de que la facilidad de uso de Sora pueda habilitar la propagación rápida de deepfakes peligrosos y desinformación. Las figuras públicas y los celebridades son especialmente vulnerables, lo que lleva a grupos como SAG-AFTRA a presionar a OpenAI para que establezca salvaguardas más fuertes.

Consejos prácticos para los usuarios

Para evaluar la autenticidad de un video, los espectadores deben buscar la marca de agua en movimiento de Sora, verificar los metadatos incrustados con la herramienta C2PA y mantenerse escépticos con respecto al contenido que se sienta irreal. Prestar atención a los errores visuales, como texto deformado, objetos desaparecidos o movimiento que defía la física, también puede ayudar a identificar los medios sintéticos.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: