Voltar

Anthropic Lança Recurso de 'Sonhar' para Agentes de IA, Desencadeia Debate sobre Nomenclatura Antropomórfica

A Anthropic introduziu um recurso chamado "sonhar" para seus agentes de IA durante uma conferência de desenvolvedores em San Francisco em 6 de maio de 2026. A empresa descreveu a adição como uma forma de os agentes analisarem o registro de tarefas recentes, identificarem padrões recorrentes e usarem essas informações para melhorar o desempenho futuro. No blog da própria Anthropic, a empresa afirmou que a memória permite que cada agente capture o que aprende enquanto trabalha, e o sonhar refina essa memória entre sessões, puxando aprendizados compartilhados entre agentes e mantendo a base de conhecimento atualizada.

Desenvolvedores que constroem fluxos de trabalho em múltiplas etapas — como navegar por vários sites ou analisar múltiplos documentos — agora terão uma ferramenta que procura automaticamente eficiências nos registros de atividade dos agentes. O objetivo, de acordo com a Anthropic, é criar agentes autossuficientes que possam se adaptar sem re-treinamento manual, um passo à frente para sua infraestrutura de agentes de IA recentemente lançada.

No entanto, a nomenclatura do recurso desencadeou uma conversa mais ampla sobre como as empresas de IA marcam suas tecnologias. A Anthropic não é a primeira a emprestar terminologia da cognição humana. A OpenAI lançou um modelo de "raciocínio" em 2024 que enfatizou um período de "pensamento" mais longo antes de responder, enquanto muitas startups comercializam seus bots como tendo "memórias" de preferências de usuário. Críticos argumentam que tal linguagem encoraja os usuários a atribuir qualidades humanas a software que opera em padrões estatísticos.

Os documentos internos da Anthropic reforçam a estruturação centrada no ser humano. A constituição da empresa referencia o modelo Claude em termos como "virtude" e "sabedoria", e um filósofo residente é encarregado de interpretar os "valores" do bot. Proponentes afirmam que o uso de conceitos familiares ajuda desenvolvedores e usuários finais a entender o comportamento do sistema, mas acadêmicos alertam que a antropomorfização pode distorcer julgamentos morais sobre a IA, incluindo avaliações de responsabilidade e confiança.

Um artigo recente na revista AI & Ética destacou o risco de que a linguagem antropomórfica leve as pessoas a superestimar o que as máquinas podem alcançar, potencialmente erodindo a crítica. Os autores observam que descrever funções de IA com analogias humanas pode inflar expectativas e obscurecer os limites técnicos dos modelos subjacentes.

O anúncio da Anthropic ocorre em um momento em que a indústria de IA está expandindo rapidamente seu portfólio de ferramentas agênticas. O recurso de "sonhar" representa um avanço técnico, mas o debate que o cerca destaca uma tensão contínua entre apelo de marketing e representação precisa. À medida que as empresas continuam a incorporar descritores humanos em nomes de produtos, observadores provavelmente monitorarão como essas escolhas moldam a compreensão pública e as conversas regulatórias em torno da inteligência artificial.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: