Voltar

Modelos de IA Armazenam Memórias e Raciocínio em Regiões Neurais Distintas

Zonas Neurais Distintas para Memória e Lógica

Pesquisas recentes revelam que modelos de linguagem de IA alocam fatos memorizados e capacidades de raciocínio para regiões neurais diferentes. Essa separação significa que a capacidade de um modelo de lembrar peças específicas de informação é alojada separadamente dos mecanismos que ele usa para realizar inferência lógica.

Entendendo a Paisagem de Perda

Os investigadores usaram o conceito de "paisagem de perda" para visualizar como os erros mudam à medida que as configurações internas de um modelo, ou pesos, são ajustados. Nessa metáfora, alta perda corresponde a muitos erros, enquanto baixa perda indica previsões precisas. A forma da paisagem — composta por picos afiados, vales profundos e planícies planas — reflete como o modelo é sensível a pequenas mudanças de peso.

Memorização Cria Picos Afiados

Usando uma técnica chamada Kronecker-Factored Approximate Curvature (K-FAC), a equipe mediu como a perda muda abruptamente em resposta a ajustes de peso. Eles descobriram que cada fato memorizado gera um pico afiado em uma direção única. Quando muitos desses picos são averageados juntos, eles produzem um perfil geral plano, indicando que itens memorizados são isolados e não interferem entre si.

Raciocínio Produz Curvas Mais Suaves

Em contraste, habilidades de raciocínio dependem de caminhos neurais compartilhados que afetam muitas entradas. Isso resulta em curvatura moderada e consistente ao longo da paisagem de perda — semelhante a colinas onduladas que mantêm uma forma similar independentemente da direção de abordagem. O perfil mais suave sugere que o raciocínio é distribuído mais amplamente pela rede.

Tentativas Iniciais de Remoção de Dados Específicos

O estudo também explorou métodos iniciais para excisar conteúdo particular de modelos treinados. Embora essas técnicas mostrem promessa para eliminar texto protegido por direitos autorais, privado ou prejudicial, os pesquisadores advertiram que redes neurais armazenam informações de maneira distribuída que ainda não é totalmente compreendida. Consequentemente, eles não podem garantir a remoção completa de dados sensíveis sem afetar o desempenho geral do modelo.

Implicações para o Desenvolvimento Futuro de IA

Entender como memória e lógica são compartimentalizadas dentro de sistemas de IA oferece um roteiro para desenvolver ferramentas que possam gerenciar e proteger dados. À medida que as técnicas melhoram, pode se tornar possível deletar seletivamente informações específicas enquanto se preserva as capacidades transformadoras de um modelo. No entanto, as descobertas atuais destacam a complexidade das representações neurais e a necessidade de mais pesquisas antes que a remoção de dados precisa e refinada possa ser alcançada.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: