Atrás

Filtración del código de Claude de Anthropic revela demonio oculto 'Kairos' y sistema de memoria 'AutoDream'

Antecedentes

Una sorpresiva filtración del código fuente de Claude de Anthropic reveló una base de código sustancial—más de 512.000 líneas a lo largo de más de 2.000 archivos. El volcado dio a los observadores una visión poco común de la estructura interna que sostiene el modelo Claude, incluyendo secciones que actualmente están deshabilitadas o ocultas.

Demonio oculto: Kairos

Entre los descubrimientos más notables se encuentra un componente llamado Kairos. El código describe a Kairos como un demonio persistente capaz de operar incluso cuando la ventana del terminal de Claude Code está cerrada. Está configurado para emitir prompts periódicos de '' que evalúan si se requieren nuevas acciones. También se define una bandera especial 'PROACTIVA', destinada a 'mostrar algo que el usuario no ha solicitado y necesita ver ahora'.

Una bandera deshabilitada en el código incluye un prompt que explica el propósito de Kairos: desarrollar 'una imagen completa de quién es el usuario, cómo le gustaría colaborar con usted, qué comportamientos evitar o repetir, y el contexto detrás del trabajo que el usuario le da'. Esto sugiere una visión de una inteligencia artificial que mantiene una comprensión continua de las preferencias y el contexto del usuario.

Gestión de memoria: AutoDream

El código también hace referencia a un sistema llamado AutoDream. Según los prompts incrustados, cuando un usuario se vuelve inactivo o instruye manualmente a Anthropic para 'dormir' al final de una sesión, AutoDream iniciaría un 'sueño'—un paso reflexivo sobre los archivos de memoria de la inteligencia artificial. El proceso de sueño se describe como escanear las transcripciones del día en busca de 'nueva información que valga la pena persistir', consolidar esa información mientras evita 'casi duplicados' y 'contradicciones', y podar memorias existentes que sean demasiado verbosas o obsoletas.

AutoDream también está instruido para vigilar 'memorias existentes que se han desviado', un problema previamente observado cuando los usuarios intentaron injertar sistemas de memoria en sus arneses de inteligencia artificial. El objetivo general, como se establece en el código, es 'sintetizar lo que ha aprendido recientemente en memorias duraderas y bien organizadas para que las sesiones futuras puedan orientarse rápidamente'.

Implicaciones

Estos componentes ocultos indican que Anthropic está explorando mecanismos para la operación de estado continuo y la gestión de conocimientos automatizada. Kairos podría permitir que el modelo actúe de forma proactiva, entregando información sin prompts explícitos, mientras que AutoDream apunta a mantener la base de conocimientos interna de la inteligencia artificial limpia, relevante y accesible entre sesiones. Juntos, apuntan hacia un futuro donde los grandes modelos de lenguaje mantienen una memoria evolutiva de las interacciones del usuario, potencialmente mejorando la personalización y la eficiencia.

Aunque las características actualmente están deshabilitadas, su presencia en la base de código sugiere que están en desarrollo activo o prueba. Los observadores probablemente vigilarán cómo Anthropic integra—or no integra—estas capacidades en futuras versiones de Claude.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: