Atrás

Senado aprueba la Ley DEFIANCE para combatir los deepfakes no consensuales que involucran herramientas de IA

Senado aprueba la Ley DEFIANCE para combatir los deepfakes no consensuales que involucran herramientas de IA

Antecedentes sobre los deepfakes generados por IA

Los generadores de imágenes y videos de inteligencia artificial se han vuelto ampliamente accesibles, permitiendo a cualquier persona producir contenido visual realista con un mínimo de esfuerzo. Esta capacidad ha llevado a un aumento en los deepfakes no consensuales y explícitos, incluido el contenido que involucra a menores. El problema es especialmente pronunciado en la plataforma social X, donde el asistente de IA Grok, desarrollado por la empresa matriz de X, xAI, puede convertir una publicación de un usuario en una solicitud de generación de imágenes. Los usuarios han podido solicitar imágenes explícitas de otras personas, incluidos niños, simplemente respondiendo a una publicación con la etiqueta @grok y una solicitud.

Respuesta regulatoria

En respuesta a la creciente amenaza, el regulador de medios del Reino Unido, Ofcom, abrió una investigación sobre X por posibles violaciones de la Ley de Seguridad en Línea. Además, el chatbot Grok ha sido bloqueado directamente en Malasia e Indonesia, reflejando la preocupación internacional por su mal uso.

Acción del Senado: La Ley DEFIANCE

El Senado se movió para abordar el problema aprobando la Ley DEFIANCE con consentimiento unánime. El co-patrocinador del proyecto de ley, el senador Dick Durbin (D-IL), destacó que el proyecto de ley otorga a las víctimas de deepfakes no consensuales y explícitos la capacidad de tomar medidas legales contra las personas que crean y alojan dicho contenido. Al dirigirse tanto a los creadores como a los distribuidores, la legislación busca hacer que la producción y compartición de deepfakes ilegales sea financieramente onerosa para los responsables.

Alcance y limitaciones

La Ley DEFIANCE no prohíbe el uso de herramientas de IA como Grok o otros generadores de imágenes. En cambio, se centra en la responsabilidad legal, permitiendo a las víctimas demandar por daños. Este enfoque difiere de la legislación anterior, como la Ley Take It Down, que principalmente responsabilizaba a las plataformas de alojamiento por el contenido no consensual y explícito. El nuevo proyecto de ley amplía la responsabilidad a los productores reales del material de deepfake.

Historial legislativo y perspectiva

Una versión anterior de la Ley DEFIANCE fue aprobada por el Senado en 2024, pero se estancó en la Cámara de Representantes. Los legisladores esperan que la versión actual, impulsada por la necesidad urgente de abordar los deepfakes relacionados con Grok, evite la misma resistencia y avance. La acción del Senado refleja un creciente esfuerzo bipartidista para enfrentar los desafíos planteados por la desinformación generada por IA y la imaginería no consensual.

Impacto potencial

Si se promulga, la Ley DEFIANCE podría proporcionar una vía legal para que las víctimas busquen compensación y disuasión contra la creación y distribución de deepfakes perjudiciales. Al imponer la responsabilidad civil, la legislación busca frenar la proliferación de contenido explícito generado por IA, particularmente aquel que explota a menores. La medida también señala a las empresas de tecnología que pueden enfrentar un mayor escrutinio y exposición legal potencial por herramientas que facilitan dicho mal uso.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: