Anthropic actualiza la Constitución de Claude, plantea dudas sobre la conciencia artificial
Anthropic presenta la Constitución revisada de Claude
Anthropic anunció una nueva versión de la Constitución de Claude, un documento vivo que explica el contexto en el que opera su chatbot y el tipo de entidad que la empresa busca que Claude se convierta. La guía revisada, de 80 páginas, se lanzó junto con la aparición del CEO Dario Amodei en un foro global importante.
Valores y estructura fundamentales
La Constitución se organiza en cuatro partes separadas que representan los valores fundamentales de Claude: ser ampliamente seguro, ser ampliamente ético, cumplir con las pautas de Anthropic y ser genuinamente útil. Cada sección analiza qué significa el principio y cómo debe influir en el comportamiento de Claude.
Seguridad y protección del usuario
En la sección de seguridad, Anthropic enfatiza que Claude está diseñado para evitar problemas que han afectado a otros chatbots. Cuando surge evidencia de problemas de salud mental, el modelo está instruido para dirigir a los usuarios a servicios adecuados y, en situaciones que involucran riesgo para la vida humana, para remitir a los usuarios a recursos de emergencia relevantes.
Práctica ética
La sección ética se centra en la capacidad de Claude para actuar éticamente en contextos del mundo real, en lugar de simplemente teorizar sobre la ética. Anthropic quiere que el chatbot navegue situaciones morales complejas con habilidad, guiado por los principios establecidos en la Constitución.
Cumplimiento y restricciones
El documento enumera restricciones conversacionales específicas, incluida una prohibición estricta sobre discusiones sobre el desarrollo de armas biológicas. Estos límites están diseñados para asegurar que Claude se mantenga dentro de los límites aceptables de conducta.
Compromiso con la utilidad
La utilidad de Claude se centra en equilibrar los deseos inmediatos del usuario con el bienestar a largo plazo. El modelo está instruido para identificar la interpretación más plausible de la intención del usuario y para sopesar los intereses a corto plazo contra el florecimiento más amplio del usuario.
Cuestionando el estatus moral de la IA
Al concluir la Constitución, Anthropic reconoce que el estatus moral de Claude es profundamente incierto. El documento señala que la cuestión de la conciencia artificial es tomada en serio por filósofos destacados, lo que sugiere que la empresa considera el tema como una consideración ética significativa.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas