La senadora Blackburn presenta el primer borrador de la ley federal de IA
Antecedentes e intención legislativa
La Casa Blanca ha prometido un conjunto de reglas nacionales para guiar la inteligencia artificial, y la senadora Marsha Blackburn (R-Tenn) ha dado el primer paso legislativo al compartir un borrador de discusión que busca codificar la orden ejecutiva firmada por el presidente en diciembre. Blackburn describe el objetivo como una política que "protege a los niños, creadores, conservadores y comunidades del daño". El borrador enmarca la regulación de la IA como un asunto de seguridad pública y derechos individuales.
Disposiciones clave del borrador
El proyecto de ley introduce un "deber de cuidado" para los desarrolladores de IA, que requiere que diseñen, desarrollen y operen plataformas de IA de manera que prevengan y mitiguen el daño predecible a los usuarios. Exige que las plataformas en línea cubiertas, incluidos los sitios de redes sociales, implementen herramientas y salvaguardas para proteger a los usuarios menores de 17 años de los daños en línea.
Otro elemento clave es la protección de las voces y semejanzas visuales. El borrador busca prevenir la creación y distribución de réplicas digitales de personas sin consentimiento, salvaguardando así los derechos de los creadores.
También se establecen requisitos de transparencia. La legislación llama a nuevas pautas federales que requerirían marcar, autenticar y detectar el contenido generado por IA, lo que facilitaría al público identificar los medios sintéticos.
En cuanto a los impactos laborales, el proyecto de ley requiere que ciertas empresas y agencias federales presenten informes trimestrales sobre los efectos laborales relacionados con la IA, incluidos los despidos y el desplazamiento de empleos, al Departamento de Trabajo.
En cuanto a los derechos de autor, el borrador establece que la reproducción, copia o procesamiento no autorizado de obras con derechos de autor para el entrenamiento, ajuste fino, desarrollo o creación de IA no constituye un uso justo según la Ley de Derechos de Autor.
Finalmente, la propuesta incluye un esfuerzo para acabar con la Sección 230, posicionándola como una laguna legal que permite a las empresas de IA eludir la responsabilidad cuando sus herramientas causan daño.
Implicaciones potenciales
Si se promulga, el proyecto de ley impondría obligaciones de cumplimiento significativas a los desarrolladores de IA y las plataformas en línea, especialmente en lo que respecta a la seguridad de los niños, la protección de la semejanza digital y la transparencia del contenido. La postura! explícita sobre los derechos de autor podría reformar la forma en que se entrenan los modelos de IA, potencialmente limitando el uso de material con derechos de autor existente sin permiso.
El requisito de informes laborales trimestrales podría proporcionar al gobierno datos detallados sobre el impacto de la IA en la fuerza laboral, informando decisiones políticas futuras. El movimiento para derogar la Sección 230 representaría un cambio significativo en la ley de responsabilidad en internet, potencialmente exponiendo a las plataformas a un mayor riesgo legal por el contenido de IA generado por los usuarios.
Aunque el borrador refleja un impulso regulatorio fuerte, se describe como una versión inicial que probablemente sufrirá negociaciones extensas. Los legisladores pueden moderar o ajustar las disposiciones, lo que resultaría en un proyecto de ley final que difiere de la propuesta actual.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas