LLM Mind-Reading Discovery pode levar a um melhor desempenho



O cérebro humano supera amplamente inteligência artificial (AI) quando se trata de eficiência energética. Os grandes modelos de linguagem (LLMs) requerem enormes quantidades de energia, portanto, compreender como eles “pensam” é uma vantagem competitiva fundamental para reduzir custos de computação e melhorar o desempenho geral. Novo pesquisar identifica como os LLMs desenvolvem capacidades de raciocínio social e formam teoria da mente (ToM), uma descoberta importante que pode levar a uma IA mais eficiente em termos energéticos no futuro.

“Ao iluminar os fundamentos estruturais do social inteligência em IA, nosso estudo preenche a lacuna entre aprendizagem profunda, ciência cognitiva e IA ética”, escreveram os autores correspondentes do estudo, Denghui Zhang e Zhaozhuo Xu do Stevens Institute of Technology, juntamente com os coautores Heng Ji da Universidade de Illinois Urbana-Champaign, Zirui Liu da Universidade de Minnesota Twin Cities, Wentao Guo da Universidade de Princeton e Yuheng Wu da Universidade de Stanford.

O termo “teoria da mente” foi cunhado em 1978 por David Premack e Guy Woodruff na Universidade da Pensilvânia com a publicação do seu artigo “O chimpanzé tem uma teoria da mente?” no diário Ciências Comportamentais e do Cérebro. Em psicologia, teoria da mente refere-se à capacidade de compreender que as emoções, percepções, intenções, pensamentos, crenças e desejos de alguém são diferentes dos dos outros, habilidade essencial para lidar com situações sociais e emocionais, bem como para a comunicação. Em suma, ToM é a capacidade de realizar leitura de mentestambém conhecido como mentalismo. Os humanos desenvolvem essa habilidade por volta dos 4 a 5 anos de idade, de acordo com o Enciclopédia no início Infância Desenvolvimento.

Os LLMs, um subconjunto do aprendizado de máquina de IA, têm a característica preocupante de falta de transparência e de serem, em grande parte, uma “caixa preta”. Artificial neural as redes são opacas quando se trata de compreender como chegam às suas previsões e conclusões. Qualquer progresso no sentido de esclarecer o funcionamento interno das redes neurais profundas pode não só traduzir-se em benefícios monetários e resultados de maior qualidade, mas também melhorar a transparência, que é fundamental no domínio da ética da IA.

“Ao explorar como os LLMs desenvolvem a capacidade de inferir estados mentais, podemos alinhar melhor os sistemas LLM com as redes sociais humanas. cogniçãopromovendo interações mais confiáveis ​​e interpretáveis”, escreveram os pesquisadores.

Para conduzir o seu estudo, a equipe de cientistas concentrou-se nos mecanismos subjacentes de como os LLMs formam a teoria da mente, particularmente nos parâmetros do modelo de IA. A estratégia dos pesquisadores foi focar nos parâmetros dos modelos para ver quais são altamente responsivos e impactam o desempenho da teoria da mente.

Para fazer isso, eles criaram um método para detectar padrões em LLM com sensibilidade de parâmetros esparsos, onde a maioria dos valores são próximos ou iguais a zero usando fórmulas matemáticas.

“Perturbar apenas 0,001% dos parâmetros do modelo leva a mudanças significativas nas capacidades ToM”, descobriram os pesquisadores.

Além disso, a equipe não apenas encontrou padrões em parâmetros esparsos que respondem extremamente às habilidades da teoria da mente, mas também encontrou sua conexão com a codificação posicional. Em modelos que contêm Rotary Position Embedding (RoPE), os pesquisadores descobriram que os parâmetros que respondem altamente ao ToM estão intimamente conectados ao módulo de codificação posicional. Nos LLMs, as codificações posicionais, também conhecidas como vetores posicionais, permitem o rastreamento da posição de cada palavra em uma sequência. Este mecanismo de rastreamento captura contexto e significado. A ordem das palavras em uma sequência afeta o significado. Para ilustrar a importância das codificações posicionais, a frase “Fred alimenta peixe” tem um significado bastante diferente de “Peixe alimenta Fred”.

Curiosamente, os cientistas descobriram que os parâmetros que respondem altamente ao ToM afetam o desempenho do modelo. atenção mecanismos que, se acionados, alteram o mecanismo de atenção e podem diminuir a compreensão da linguagem e as habilidades da teoria da mente do modelo.

Os pesquisadores pioneiros aplicaram a ciência cognitiva e a teoria da mente no nível dos parâmetros para ajudar a compreender o funcionamento interno dos grandes modelos de linguagem de IA e descobriram insights importantes. Eles descobriram que parâmetros específicos que influenciam as tarefas da teoria da mente também influenciam a compreensão e o contexto da linguagem do modelo. As descobertas sugerem que a teoria do raciocínio da mente nos LLMs é emergente e surge de interações entre componentes.

“À medida que os LLMs continuam a evoluir, compreender como adquirem, codificam e manipulam o raciocínio social será essencial para garantir a sua transparência, fiabilidade e alinhamento com os valores humanos”, concluíram os investigadores.

Direitos autorais © 2025 Cami Rosso. Todos os direitos reservados.



Fonte