La aplicación Sora de OpenAI genera preocupación sobre la proliferación de deepfakes
Los videos generados por IA se vuelven mainstream con Sora
OpenAI ha lanzado Sora, una aplicación para iOS que convierte a cualquier usuario en un creador de videos generados por IA. La aplicación presenta una fuente de estilo TikTok donde cada clip es producido por el modelo, lo que la convierte en una "aplicación de redes sociales" construida entirely sobre medios sintéticos.
Marca de agua integrada y metadatos
Cada video exportado desde Sora lleva una logo de nube blanca distintiva que se mueve alrededor de los bordes del clip. Esta marca de agua en movimiento refleja el enfoque utilizado por plataformas como TikTok. Además, los videos incorporan credenciales de contenido de la Coalición para la Provenencia y Autenticidad de Contenido (C2PA). Los metadatos registran que el archivo fue "emitido por OpenAI" y lo marcan como generado por IA.
Herramientas de verificación
La Iniciativa de Autenticidad de Contenido ofrece una herramienta de verificación gratuita que lee los metadatos incorporados. Los usuarios pueden subir un video al servicio y ver un panel que confirma su origen, fecha de creación y estado de IA. Si bien la herramienta marca de manera fiable los videos de Sora sin alterar, puede pasar por alto el contenido que ha sido recodificado o privado de su marca de agua.
Etiquetas de plataforma y divulgación del creador
La familia de aplicaciones de Meta, así como TikTok y YouTube, han comenzado a etiquetar publicaciones que parecen ser generadas por IA. Estos sistemas internos no son perfectos, y la indicación más confiable sigue siendo una divulgación clara del creador. Algunas plataformas ahora permiten a los usuarios agregar una etiqueta "generado por IA" en las leyendas, lo que ayuda a la audiencia a entender la fuente.
Preocupaciones de la industria
Los expertos destacan el riesgo de que el flujo de trabajo de baja habilidad y bajo costo de Sora podría acelerar la propagación de deepfakes y desinformación. Las figuras públicas y celebridades son especialmente vulnerables, lo que lleva a sindicatos como SAG-AFTRA a instar a OpenAI a fortalecer las salvaguardas. El CEO de OpenAI, Sam Altman, ha reconocido que la sociedad tendrá que adaptarse a un mundo donde cualquier persona puede crear videos falsos realistas.
Qué pueden hacer los usuarios
Se aconseja a los consumidores que estén atentos: busquen la marca de agua en movimiento, verifiquen los metadatos con herramientas de verificación y sean escépticos con respecto al contenido que les parezca "raro". Si bien ningún método garantiza la detección, combinar señales visuales, verificaciones de metadatos y etiquetas de plataforma proporciona la mejor oportunidad de detectar medios sintéticos.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas