Atrás

Anthropic presenta la función de "soñar" para agentes de IA, desencadena debate sobre la nomenclatura antropomórfica

Anthropic presentó una función llamada "soñar" para sus agentes de IA durante una conferencia de desarrolladores en San Francisco el 6 de mayo de 2026. La empresa describió la adición como una forma para que los agentes ordenen el registro de tareas recientes, identifiquen patrones recurrentes y utilicen esas ideas para mejorar el rendimiento futuro. En el blog de Anthropic, la empresa dijo que la memoria permite que cada agente capture lo que aprende mientras trabaja, y soñar refina esa memoria entre sesiones, extrayendo aprendizajes compartidos entre agentes y manteniendo la base de conocimientos actualizada.

Los desarrolladores que crean flujos de trabajo de varios pasos, como navegar por varios sitios web o analizar varios documentos, ahora tendrán una herramienta que busca automáticamente eficiencias en los registros de actividad de los agentes. El objetivo, según Anthropic, es crear agentes automejorables que puedan adaptarse sin necesidad de volver a entrenar manualmente, un paso adelante para su infraestructura de agentes de IA lanzada recientemente.

El nombre de la función, sin embargo, ha desencadenado una conversación más amplia sobre cómo las empresas de IA marcan sus tecnologías. Anthropic no es la primera en tomar prestada la terminología de la cognición humana. OpenAI presentó un modelo de "razonamiento" en 2024 que enfatizaba un período de "pensamiento" más largo antes de responder, mientras que muchas startups mercadean sus bots como si tuvieran "memorias" de preferencias de los usuarios. Los críticos argumentan que ese lenguaje anima a los usuarios a atribuir cualidades similares a las humanas a software que opera con patrones estadísticos.

Los documentos internos de Anthropic refuerzan el marco centrado en el ser humano. La constitución de la empresa hace referencia al modelo Claude en términos como "virtud" y "sabiduría", y un filósofo residente está encargado de interpretar los "valores" del bot. Los partidarios afirman que utilizar conceptos familiares ayuda a los desarrolladores y a los usuarios finales a entender el comportamiento del sistema, pero los académicos advierten que el antropomorfismo puede distorsionar los juicios morales sobre la IA, incluyendo las evaluaciones de responsabilidad y confianza.

Un artículo reciente en la revista AI & Ethics destacó el riesgo de que el lenguaje antropomórfico haga que la gente sobreestime lo que las máquinas pueden lograr, lo que podría erosionar la crítica escrutinio. Los autores señalan que describir las funciones de la IA con analogías humanas puede inflar las expectativas y ocultar los límites técnicos de los modelos subyacentes.

El anuncio de Anthropic llega en un momento en que la industria de la IA está expandiendo rápidamente su cartera de herramientas de agencia. La función de "soñar" representa un avance técnico, pero el debate que la rodea subraya una tensión continua entre el atractivo de marketing y la representación precisa. A medida que las empresas siguen incorporando descriptores similares a los humanos en los nombres de los productos, es probable que los observadores monitoreen cómo esas decisiones moldean la comprensión pública y las conversaciones regulatorias sobre la inteligencia artificial.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: