Atrás

Senador de California Scott Wiener impulsa proyecto de ley de seguridad de IA SB 53 en medio del debate industrial

Senador de California Scott Wiener impulsa proyecto de ley de seguridad de IA SB 53 en medio del debate industrial

Antecedentes y historia legislativa

El senador estatal de California Scott Wiener ha perseguido durante mucho tiempo la regulación de la seguridad de la IA. En 2024, presentó SB 1047, un proyecto de ley que habría hecho que las empresas de tecnología fueran responsables de los daños causados por los sistemas de IA. El gobernador Gavin Newsom vetó SB 1047, citando preocupaciones de que la legislación podría frenar el auge de la IA en el estado.

Nueva propuesta: SB 53

El esfuerzo más reciente de Wiener, SB 53, ahora espera la decisión del gobernador. El proyecto de ley se centra en los desarrolladores de IA más grandes, aquellos que generan más de $500 millones en ingresos, y les requiere que publiquen informes de seguridad para sus modelos más capaces. Los informes deben abordar los riesgos más catastróficos, incluido el potencial de que la IA cause muertes humanas, permita ataques cibernéticos masivos o facilite la creación de armas químicas.

Además de los requisitos de informes, SB 53 crea canales protegidos para que los empleados de laboratorios de IA informen preocupaciones de seguridad directamente a funcionarios del gobierno. También establece un clúster de computación en la nube operado por el estado, llamado CalCompute, destinado a proporcionar recursos de investigación de IA que sean independientes de la infraestructura de Big Tech.

Reacciones de la industria

Anthropic ha respaldado públicamente SB 53, describiendo la legislación como un paso constructivo hacia el desarrollo responsable de la IA. Un portavoz de Meta expresó su apoyo a la regulación de la IA que equilibre la seguridad con la innovación, calificando a SB 53 de "un paso en esa dirección". El ex asesor de política de IA de la Casa Blanca, Dean Ball, elogió el proyecto de ley como "una victoria para las voces razonables".

OpenAI, sin embargo, argumentó que los laboratorios de IA solo deben estar sujetos a normas federales, sugiriendo que los requisitos a nivel estatal podrían crear un mosaico de regulaciones. Andreessen Horowitz planteó preocupaciones de que algunos proyectos de ley de IA estatales podrían violar la Cláusula de Comercio Dormante de la Constitución, que limita a los estados a restringir indebidamente el comercio interestatal.

Contexto de política y dinámica política

Wiener ha expresado escepticismo sobre la capacidad del gobierno federal para promulgar medidas de seguridad de IA significativas, afirmando que los estados necesitan actuar cuando la acción federal se estanca. También criticó los esfuerzos federales recientes que buscan bloquear las leyes de IA estatales, describiéndolos como favorables a los intereses de la industria.

El trasfondo político incluye debates sobre si la regulación de la IA debe manejarse a nivel federal o dejarse a estados como California. Mientras que algunos líderes de la industria abogan por un enfoque federal uniforme, otros ven las iniciativas estatales como SB 53 como esenciales para garantizar la transparencia y la rendición de cuentas en el desarrollo de la IA.

Impacto potencial

Si se firma, SB 53 sería una de las primeras leyes estatales en imponer informes de seguridad estructurados a gigantes de la IA como OpenAI, Anthropic, xAI y Google. Al centrarse en los riesgos más graves y proporcionar mecanismos para que los empleados denuncien, el proyecto de ley busca mejorar la seguridad pública sin obstaculizar indebidamente la innovación. Su aprobación también podría sentar un precedente para que otros estados consideren medidas de supervisión de IA similares.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: