Sora de OpenAI plantea preocupaciones sobre la detección de deepfakes y la adopción de credenciales de contenido
Antecedentes y capacidades de Sora
La herramienta de generación de videos de OpenAI, Sora, un servicio impulsado por inteligencia artificial, crea videos muy realistas que pueden representar a individuos bien conocidos y personajes con derechos de autor. La salida de la herramienta es lo suficientemente convincente como para generar preocupaciones sobre su posible uso indebido para la desinformación, el acoso y otros fines perjudiciales.
Credenciales de contenido incorporadas
Sora incorpora automáticamente metadatos de la Coalición para la Proveniencia y Autenticidad de Contenido (C2PA), también conocidos como credenciales de contenido. Estos datos invisibles registran detalles sobre cómo y cuándo se creó un video, proporcionando un medio técnico para rastrear su origen.
Visibilidad y eficacia de las etiquetas
A pesar de la presencia de metadatos de C2PA, la mayoría de las plataformas sociales no muestran esta información a los usuarios finales. Instagram y Facebook de Meta han experimentado con pequeñas etiquetas "Información de IA", pero estas a menudo están ocultas o eliminadas. TikTok, YouTube y X tienen etiquetado visible mínimo o nulo para el contenido generado por IA, lo que hace difícil para los espectadores reconocer los deepfakes.
Desafíos con la dependencia de metadatos
Los expertos señalan que confiar únicamente en metadatos incorporados es problemático. Las credenciales de contenido pueden ser eliminadas o alteradas durante la carga, y el usuario promedio carece de herramientas para inspeccionar los datos ocultos. Además, las plataformas frecuentemente eliminan o ignoran los metadatos, socavando su función de protección pretendida.
Respuestas de la industria y la regulación
Adobe, un defensor líder de C2PA, enfatiza la necesidad de una adopción más amplia en todo el ecosistema de contenido. Empresas como Google, Amazon y Cloudflare han expresado su apoyo, pero aún no han implementado etiquetado visible a gran escala. Mientras tanto, las empresas de detección de IA como Reality Defender enfatizan que se necesitará una combinación de herramientas - metadatos, marcas de agua y detección basada en inferencia - para combatir los deepfakes de manera efectiva.
Llamadas a la acción política
Las partes interesadas están instando a medidas legislativas para abordar el uso indebido de los medios generados por IA. Las propuestas incluyen la Ley de Derechos Antimpersonación Federal (FAIR Act) y la Ley de Prevención del Abuso de Replicas Digitales (PADRA), que proporcionarían salvaguardias legales contra las impersonaciones de IA no autorizadas.
Conclusión
La aparición de Sora resalta una brecha más amplia entre las soluciones técnicas para la proveniencia y la visibilidad práctica de esas soluciones para el público. Sin etiquetado más claro, normas de la industria y políticas de apoyo, el riesgo de videos de IA generados que engañan sigue siendo significativo.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas