Google, Microsoft y xAI acuerdan dar al gobierno de EE. UU. acceso temprano a modelos de IA
En un movimiento que podría cambiar la forma en que Estados Unidos monitorea la tecnología de inteligencia artificial emergente, Google, Microsoft y xAI han firmado cada uno contratos para entregar versiones tempranas de sus modelos de IA al Centro de Estándares e Innovación de IA (CAISI) del Departamento de Comercio. Los acuerdos, divulgados el 5 de mayo, dan a los analistas federales la oportunidad de examinar sistemas de vanguardia antes de que lleguen al mercado.
CAISI, la agencia encargada de desarrollar estándares de medición para la IA avanzada, recibirá los modelos con salvaguardias reducidas o, en algunos casos, con las salvaguardias desactivadas por completo. Ese nivel de acceso permite al departamento probar los sistemas para capacidades que podrían afectar la seguridad nacional, desde análisis de datos sofisticados hasta la posible weaponización.
"La ciencia de medición independiente y rigurosa es esencial para entender la IA de frontera y sus implicaciones para la seguridad nacional", dijo el director de CAISI, Chris Fall, a The Wall Street Journal. "Estas colaboraciones industriales ampliadas nos ayudan a escalar nuestro trabajo en el interés público en un momento crítico". La declaración subraya el impulso de la administración para mantenerse por delante de los rápidos avances de la IA que podrían superar los marcos regulatorios existentes.
La oportunidad de los acuerdos es notable. Un día antes, The New York Times informó que la administración Trump estaba considerando si debía endurecer la supervisión de la industria de la IA. La Casa Blanca había estado considerando un grupo de trabajo facultado para revisar nuevos modelos antes de que se lanzaran públicamente, un cambio con respecto al enfoque más relajado descrito en el plan de acción de IA del presidente.
Los insiders de la industria dicen que los contratos son una respuesta pragmática a la creciente presión. Las empresas que se resisten a proporcionar acceso sin restricciones riesgan ser etiquetadas como riesgos de la cadena de suministro, como sucedió con Anthropic después de que el Pentágono expresó preocupaciones sobre las salvaguardias de la empresa contra la vigilancia masiva y las armas autónomas. Al cooperar, Google, Microsoft y xAI evitan el posible black-listing y demuestran cumplimiento con las expectativas federales.
Bajo los acuerdos, las tres empresas entregarán sus modelos más recientes a CAISI para su prueba. La agencia evaluará los sistemas para una serie de atributos relacionados con la seguridad, incluida la capacidad de generar información falsa, evadir la detección o ser reutilizados para aplicaciones militares. Las evaluaciones informarán las directrices que podrían dar forma a las decisiones de adquisición futuras en todo el gobierno federal.
Los críticos del enfoque advierten que otorgar al gobierno acceso a modelos de IA con salvaguardias debilitadas podría exponer vulnerabilidades o crear un precedente para una vigilancia más amplia. Los partidarios argumentan que sin dicha transparencia, Estados Unidos podría quedarse atrás de sus rivales en la comprensión de las amenazas planteadas por la IA de frontera.
Mientras que los acuerdos señalan una postura más colaborativa entre el sector tecnológico y el gobierno federal, también plantean preguntas sobre el equilibrio entre la innovación y la seguridad. Los próximos pasos de la administración —potencialmente formalizar un grupo de trabajo con autoridad de revisión— determinarán hasta dónde se extiende el régimen de supervisión.
Por ahora, los tres gigantes tecnológicos parecen dispuestos a colocar sus modelos más avanzados bajo la supervisión del gobierno, una decisión que puede sentar el tono para futuras asociaciones entre la industria y el gobierno en el ámbito de la IA.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas