Lo nuevo en Article Factory y lo último en el mundo de la IA generativa

Expertos piden auditorías independientes mientras las normas de seguridad de la IA siguen sin definirse

Expertos piden auditorías independientes mientras las normas de seguridad de la IA siguen sin definirse
Líderes de la industria y académicos advierten que sin normas claras, las pruebas de seguridad de la IA podrían convertirse en una herramienta política. Microsoft, el Instituto Nacional de Estándares y Tecnología (NIST) y la Iniciativa de Seguridad de la IA (CAISI) planean desarrollar métodos de prueba sobre la marcha, pero los críticos argumentan que solo un sistema de auditoría independiente puede prevenir el exceso de poder gubernamental y garantizar la rendición de cuentas. El profesor de la Universidad de Cornell, Gregory Falco, propone un régimen de auditoría rigurosamente aplicado similar al de la IRS, instando a las empresas a adoptar controles de seguridad internos antes de la implementación. Leer más →

Cinco laboratorios de inteligencia artificial de frontera acuerdan revisiones voluntarias de modelos previos a su lanzamiento con el gobierno de EE. UU.

Cinco laboratorios de inteligencia artificial de frontera acuerdan revisiones voluntarias de modelos previos a su lanzamiento con el gobierno de EE. UU.
Google, Microsoft, xAI, OpenAI y Anthropic han aceptado dar al Departamento de Comercio de EE. UU. acceso previo a sus modelos más nuevos. El acuerdo voluntario, creado por un equipo de menos de 200 personas, proporciona la aproximación más cercana que tiene EE. UU. a un sistema de supervisión de inteligencia artificial, aunque no tiene autoridad legal y no puede bloquear despliegues. La expansión sigue a la llamada crisis de Mythos, que destacó la necesidad de una revisión gubernamental temprana de capacidades de inteligencia artificial poderosas. Leer más →