人脑与AI的语言密码:新研究发现两者共享树状句子理解模式
大脑和大型语言模型是如何理解句子中复杂的层次结构的?研究人员 Wei Liu, Ming Xiang, Nai Ding 等设计了一项巧妙的单词删除任务,从行为层面证明,人类和LLMs在没有明确语法指导的情况下,都会自发地使用一种潜在的、类似语言学理论的树状结构来表征和处理句子。
研究团队开发了一种新颖的单次学习任务。任务中,人类参与者(包括中文、英文母语者及双语者)和ChatGPT等大型语言模型仅通过一个示范(一个被删除了特定词组的句子)来推断转换规则,并将其应用到新句子上。该任务对所有参与者都是陌生的,旨在探测其处理语言时无意识依赖的内在结构。结果显示,无论是人类还是LLM,都表现出极强的偏好,倾向于删除构成完整语言单位的“成分”,而非任意的词语组合,这证明了它们对句子内在句法结构的敏感性。
更有趣的是,研究发现推断出的规则具有语言特异性:处理英文时,参与者倾向于遵循“父范畴规则”(parent category rule,即删除父节点类型相同的成分);处理中文时,则倾向于“节点范畴规则”(node category rule,即删除自身节点类型相同的成分)。最关键的突破在于,通过汇总参与者在多轮测试中的删除选择,研究团队利用CKY算法(一种动态规划算法)成功地为句子重建了其潜在的层次结构树。这些纯粹基于行为数据重建的树,与语言学家定义的标准句法树高度吻合。研究发表在 Nature Human Behaviour 上。
阅读更多:
Liu, Wei, et al. “Active Use of Latent Tree-Structured Sentence Representation in Humans and Large Language Models.” Nature Human Behaviour, Sept. 2025, pp. 1–14. www.nature.com, https://doi.org/10.1038/s41562-025-02297-0
精选评论