当前大语言模型与人脑在结构和运行机制上存在鸿沟,导致其长期推理能力和可解释性受限。来自 Pathway 公司的 Adrian Kosowski, Przemysław Uznański 及同事提出了一种名为 Dragon Hatchling(BDH)的全新 AI 架构。该模型在性能上可与 Transformer 相媲美,同时其设计基于生物学启发的、可解释的神经元局部交互网络,旨在弥合人工智能与大脑模型之间的差距。
研究团队构建的 Dragon Hatchling(BDH)架构,其核心思想是模拟一个由大量神经元粒子组成的分布式计算网络。理论上,该模型的推理过程由局部图动力学驱动,其工作记忆完全依赖于突触可塑性,并遵循赫布学习规则(Hebbian learning,即神经元共同激活时它们之间的连接会增强)。为了实现大规模训练,团队开发了其实用版本 BDH-GPU,通过一种均场近似(mean-field approximation)使其能够高效地在 GPU 上运行。在实验中,团队训练了参数量从 1000 万到 10 亿不等的 BDH-GPU 模型,并在多项语言和翻译任务中证明,其性能和扩展定律均能与同等规模的 GPT-2 架构 Transformer 相匹敌。更重要的是,BDH-GPU 无需特殊引导,便自发涌现出多项关键的类脑特性:它的激活向量天然地呈现高度稀疏性(sparsity,即在任何时刻只有一小部分神经元处于活跃状态);模型内部形成了高度模块化的网络结构;并且实现了单义性(monosemanticity,即单个神经元稳定地对应一个具体的概念),极大地提升了模型的可解释性。这项工作成功地在宏观的注意力机制和微观的神经元动力学之间建立了桥梁。
2025/11/14·2.7K 查看