Atrás

Anthropic Revisa su Compromiso de Seguridad, se Desplaza hacia Informes de Transparencia

Cambio de Política Alejándose de las Garantías de Seguridad Previa a la Liberación

Anthropic anunció que ya no prometerá pausar el entrenamiento o la liberación de sistemas de inteligencia artificial de vanguardia a menos que pueda garantizar que todas las mitigaciones de seguridad estén en su lugar con anticipación. El compromiso original, introducido en 2023, había distinguido a la empresa al efectivamente prohibir el avance más allá de ciertos niveles de capacidad sin salvaguardias predefinidas.

Nuevo Marco Centrado en la Transparencia y los Mapas de Carretera

Bajo la política de Escalada Responsable revisada, Anthropic publicará mapas de carretera de seguridad de vanguardia detallados que describen los hitos de seguridad planificados. También emitirá informes de riesgo regulares que evalúan las capacidades del modelo y las amenazas potenciales. La empresa dice que estas medidas crearán presión interna para priorizar la investigación de mitigación mientras le permite mantenerse competitiva en un mercado en rápida evolución.

Razón de los Ejecutivos y Presión del Mercado

Los líderes de la empresa describen el cambio como una respuesta pragmática a un mercado definido por la iteración rápida y la urgencia geopolítica. Argumentan que la restricción unilateral ya no tiene sentido cuando los competidores avanzan rápidamente, y que un marco más flexible se alinea mejor con las realidades comerciales.

Críticos y Llamadas a la Regulación

Los observadores de la industria y los grupos de monitoreo independientes critican el movimiento, señalando que la promesa central de garantizar la seguridad antes de la liberación ha sido eliminada. Sostienen que los compromisos voluntarios pueden ser reescritos y que se necesita una supervisión regulatoria en tiempo real para garantizar estándares de seguridad significativos.

Implicaciones para los Usuarios y el Paisaje de la IA

Para los usuarios cotidianos, el cambio de política puede no ser inmediatamente visible, pero influye en cómo se entrenan, evalúan y despliegan los sistemas de inteligencia artificial. El cambio refleja una recalibración más amplia dentro del sector de la IA, donde las empresas equilibran las preocupaciones de seguridad con la presión para innovar y capturar participación de mercado.

Compromiso Continuo de Anthropic con la Seguridad

Aunque se ha eliminado la condición preestablecida estricta, Anthropic mantiene que igualará o superará los esfuerzos de seguridad de los competidores y retrasará el desarrollo si identifica un riesgo catastrófico significativo. La empresa también contribuyó $20 millones a un grupo de acción política que apoya la regulación de la seguridad de la IA, subrayando la relación compleja entre las acciones de la industria y la defensa de políticas.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: