越大越像人脑?模型规模是LLM与大脑对齐的关键
大语言模型与人脑语言处理机制有多相似?是模型规模越大越像,还是经过指令微调后更像?来自 Changjiang Gao, Shujian Huang, Jixing Li 等研究人员进行了一项研究,系统比较了不同规模的基础模型和指令微调模型与人类在自然阅读时的脑活动及眼动模式的对齐程度,发现模型的规模是其更接近人脑的关键。
研究团队分析了一个公开数据集,其中包含50名参与者在阅读科技文章时同步记录的眼动追踪和功能性磁共振成像(fMRI)数据。他们比较了从GPT-2到LLaMA系列(参数规模从7亿到650亿)等多种基础LLM及其经过指令微调后的版本。研究的核心方法是,通过岭回归(ridge regression)将每个模型内部的自注意力机制与人类的实际行为和神经信号进行对齐。
研究结果清晰地揭示了“规模定律”(scaling law)的存在:随着模型规模的增大,其注意力模式与人类为理解文本而进行的回视眼动(regressive eye saccades)以及大脑语言网络的活动越来越一致。具体来说,更大的模型能更准确地预测双侧颞顶叶网络(大脑中负责语言理解和整合的关键区域)的神经活动。然而,与此形成鲜明对比的是,指令微调并未带来任何额外的提升。在相同规模下,基础模型和微调模型的表现几乎没有差别。这一结论在另一个中文听力理解的fMRI数据集上也得到了验证,表明扩大模型规模比进行指令微调更能有效地使模型模拟人脑的语言处理过程。研究发表在 Nature Computational Science 上。
阅读更多:
Gao, Changjiang, et al. “Increasing Alignment of Large Language Models with Language Processing in the Human Brain.” Nature Computational Science, Sept. 2025, pp. 1–11. www.nature.com, https://doi.org/10.1038/s43588-025-00863-0
精选评论