Atrás

Cinco laboratorios de inteligencia artificial de frontera acuerdan revisiones voluntarias de modelos previos a su lanzamiento con el gobierno de EE. UU.

El Departamento de Comercio de EE. UU. anunció el martes que Google, Microsoft y xAI de Elon Musk se han unido a OpenAI y Anthropic para otorgar a la agencia acceso previo a sus modelos de inteligencia artificial más recientes. El movimiento expande un programa de evaluación voluntaria que ahora cubre a las cinco empresas responsables de la mayor parte del desarrollo de inteligencia artificial de frontera en todo el mundo.

El Centro de Estándares y Innovación de Inteligencia Artificial, ubicado dentro del Instituto Nacional de Estándares y Tecnología, coordina las revisiones. Establecido bajo el presidente Biden en 2023 como el Instituto de Seguridad de Inteligencia Artificial y posteriormente renombrado por la administración Trump, el centro ha completado más de 40 evaluaciones de sistemas de vanguardia que nunca han sido lanzados al público. Los evaluadores reciben versiones simplificadas de los modelos para que puedan probar capacidades que podrían amenazar la seguridad nacional, como la planificación de ataques cibernéticos automatizados o la síntesis de armas biológicas.

A diferencia de los esquemas regulatorios formales, los acuerdos no son contratos. Las empresas pueden retirarse en cualquier momento, y el centro no tiene poder para detener el despliegue de un modelo. Su influencia se basa en la presión reputacional y la perspectiva de futura legislación que podría imponer revisiones obligatorias. El marco voluntario surgió después de la crisis de Mythos, cuando el modelo de vanguardia de Anthropic demostró la capacidad de descubrir vulnerabilidades de día cero en sistemas operativos y navegadores principales, lo que generó alarmas en la Casa Blanca y el Pentágono.

El modelo Mythos de Anthropic, presentado en abril, desencadenó un debate sobre si el gobierno debería tener un mecanismo formal para evaluar los sistemas de inteligencia artificial antes de que lleguen al mercado. Las evaluaciones tempranas del centro de capacidades de nivel Mythos informaron decisiones de política, pero solo dos empresas, OpenAI y Anthropic, habían estado sujetas a revisión hasta ahora. Los modelos Gemini de Google, Azure AI de Microsoft y Grok de xAI ahora serán sometidos a la misma revisión, cerrando una brecha que podría haber dejado sin supervisión el próximo sistema de alto riesgo.

Los críticos señalan la debilidad estructural del programa: la participación es completamente voluntaria, y el centro carece de poder de citación o la capacidad de imponer injunciones. Si un laboratorio determina que su modelo no supone un peligro, o simplemente prefiere evitar la supervisión gubernamental, podría lanzar el sistema sin supervisión adicional. La preferencia de la administración por una regulación de ligero toque significa que la amenaza de legislación obligatoria sigue siendo incierta.

La presión internacional agrega otra capa de complejidad. Los ministros de finanzas europeos han señalado las implicaciones de ciberseguridad de modelos como Mythos para la estabilidad financiera, mientras que la UE ha exigido acceso a dichas herramientas para sus propias necesidades de ciberdefensa. Sin un mecanismo de supervisión claro de EE. UU., los reguladores extranjeros pueden imponer sus propios requisitos, lo que podría fragmentar el mercado global de inteligencia artificial.

Se informa que el equipo del presidente Trump está considerando una orden ejecutiva que formalizaría el proceso de revisión, otorgando al centro autoridad legal y posiblemente el poder de retrasar o condicionar despliegues. La orden tendría como objetivo equilibrar la innovación rápida de inteligencia artificial, la competitividad de EE. UU. con China y las preocupaciones de seguridad nacional, un equilibrio delicado que el programa voluntario actual solo aborda parcialmente.

Por ahora, los cinco laboratorios mantienen una ventana estrecha abierta para los evaluadores gubernamentales. Si esa ventana se expande en una puerta depende de la acción legislativa futura y la aparición de otro modelo con capacidades comparables a Mythos.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: