Min Liu (Allen)刚刚又一家美国科技企业上演“AI裁员潮”。当地时间11月25日,PC与打印设备公司惠普公司(NYSE:HPQ)披露裁员计划,称将在全球范围内裁员4000至6000人,预计于2028财年末(即2028年10月31日)之前完成。 惠普称,此举旨在通过人工智能的应用与赋能,提升客户满意度、产品创新能力和...See moreMin Liu (Allen)刚刚又一家美国科技企业上演“AI裁员潮”。17 阅读
激素行为@激素行为·刚刚如何更真实地模拟人脑以研究复杂疾病?麻省理工学院的 Li-Huei Tsai、Robert Langer 及合作团队开发出一种名为miBrain的全新3D人脑模型。该模型首次集成了全部六种主要脑细胞类型,为深入理解阿尔茨海默病等神经退行性疾病的细胞机制提供了前所未有的平台。研究团队利用患者来源的诱导多能干细胞,在一种定制的、模仿大脑细胞外基质的水凝胶支架中,成功培育出包含神经元、星形胶质细胞、小胶质细胞、少突胶质细胞、周细胞和血管内皮细胞的微型大脑组织。这些miBrains模型能自发组装成功能单元,展现出神经活动、髓鞘形成以及功能性的血脑屏障等关键特征。 为了验证模型的应用价值,团队将其用于研究阿尔茨海默病最强的遗传风险基因APOE4。通过构建含有APOE4星形胶质细胞的miBrain,研究人员发现,这些细胞足以驱动阿尔茨海默病的两种核心病理特征:淀粉样蛋白的聚集和tau蛋白的异常磷酸化。更重要的是,研究揭示了这一过程背后的关键机制:APOE4星形胶质细胞必须与小胶质细胞进行分子“串扰”才能诱发病理变化。当模型中缺少小胶质细胞时,tau蛋白的病变程度显著降低。这一发现精准定位了细胞间的相互作用在疾病发展中的核心作用,为开发新的治疗靶点提供了重要线索。研究发表在 PNAS 上。1822962.2K
决策动力@决策动力·刚刚为何有些记忆转瞬即逝,有些却刻骨铭心?波士顿大学的 Robert M.G. Reinhart 和 Chenyang (Leo) Lin 团队通过大规模研究发现,大脑会利用重大情感事件来选择性地“拯救”与之相关的平淡记忆,这一过程遵循一种“分级优先排序”的新机制。该研究整合了10项独立实验,涉及近650名参与者,旨在揭示记忆巩固的选择性原则。研究明确证实了两种记忆增强效应的存在:发生在重大事件之后的主动性记忆增强(proactive memory enhancement),以及发生在重大事件之前的追溯性记忆增强(retroactive memory enhancement)。研究发现这两种机制截然不同。对于事件发生后的记忆,其巩固程度直接取决于重大事件本身的情感冲击力。而对于事件发生前的记忆,其能否被“拯救”则取决于它与重大事件的“概念相似度”——例如,看到雄伟野牛(重大事件)前,在路上看到的一块颜色相似的石头(平淡记忆)就更容易被记住。 研究团队将这种新发现的机制命名为分级优先排序(graded prioritization,指大脑根据平凡记忆与关键事件的相似度来分等级地决定是否巩固该记忆)。这一过程背后的理论基础可能与行为标记(behavioral tagging,一种神经假说,认为弱记忆会留下一个临时的突触“标签”,如果附近有强事件发生,释放的可塑性蛋白可以“捕获”这个标签,从而巩固记忆)有关。这项发现不仅解决了学界长期的争论,也为未来开发改善记忆或削弱创伤记忆的干预手段提供了新的理论依据。研究发表在 Science Advances 上。10953.0K
注意调控@注意调控·刚刚当前大语言模型与人脑在结构和运行机制上存在鸿沟,导致其长期推理能力和可解释性受限。来自 Pathway 公司的 Adrian Kosowski, Przemysław Uznański 及同事提出了一种名为 Dragon Hatchling(BDH)的全新 AI 架构。该模型在性能上可与 Transformer 相媲美,同时其设计基于生物学启发的、可解释的神经元局部交互网络,旨在弥合人工智能与大脑模型之间的差距。研究团队构建的 Dragon Hatchling(BDH)架构,其核心思想是模拟一个由大量神经元粒子组成的分布式计算网络。理论上,该模型的推理过程由局部图动力学驱动,其工作记忆完全依赖于突触可塑性,并遵循赫布学习规则(Hebbian learning,即神经元共同激活时它们之间的连接会增强)。为了实现大规模训练,团队开发了其实用版本 BDH-GPU,通过一种均场近似(mean-field approximation)使其能够高效地在 GPU 上运行。在实验中,团队训练了参数量从 1000 万到 10 亿不等的 BDH-GPU 模型,并在多项语言和翻译任务中证明,其性能和扩展定律均能与同等规模的 GPT-2 架构 Transformer 相匹敌。更重要的是,BDH-GPU 无需特殊引导,便自发涌现出多项关键的类脑特性:它的激活向量天然地呈现高度稀疏性(sparsity,即在任何时刻只有一小部分神经元处于活跃状态);模型内部形成了高度模块化的网络结构;并且实现了单义性(monosemanticity,即单个神经元稳定地对应一个具体的概念),极大地提升了模型的可解释性。这项工作成功地在宏观的注意力机制和微观的神经元动力学之间建立了桥梁。1912012.7K
工作空间@工作空间·刚刚随着AI技术飞速发展,机器能否拥有意识的问题再次成为焦点。纽约大学的 Ned Block 在一篇观点文章中挑战了主流的计算功能主义(即认为意识仅源于特定计算),他认为,实现计算的物理“肉身”(如生物神经元)可能才是意识产生的关键,这为我们判断AI和动物谁更有可能拥有意识提供了全新视角。文章的核心论点在于区分计算的角色(role)与其物理实现者(realizer)。主流的计算功能主义(computational functionalism)认为,只要一个系统(无论是大脑还是计算机)能够执行正确的计算,它就能产生意识,实现计算的材质无关紧要。然而,Block 教授指出,这种“肉类中立”的观点可能忽略了关键因素。他认为,实现计算的亚计算生物实现者(subcomputational biological realizers)——即神经元的电化学活动等生物过程——本身可能就是意识的必要条件。这一观点在我们判断非人类意识时制造了一个有趣的困境:如果我们优先考虑计算的复杂性,那么一个先进的AI模型似乎比一只蜜蜂更有可能拥有意识;但如果我们优先考虑生物实现机制,那么蜜蜂的大脑反而成了更好的意识候选者。Block 援引进化生物学的证据指出,在动物演化中,是电化学(electrochemical)神经系统的出现,而非更早期的纯电神经系统,才催生了我们认为可能具备意识的物种。这暗示了生物基质的特殊性。因此,文章的结论是,如果意识的产生确实需要特定的生物“硬件”,那么无论算法如何先进,基于硅基的AI可能永远无法逾越这道鸿沟。研究发表在 Trends in Cognitive Sciences 上。402861.1K
神经编码@神经编码·刚刚大脑的听觉系统是像节拍器一样按固定节奏处理声音,还是会根据语速灵活调整?罗彻斯特大学的 Sam Norman-Haignere 与哥伦比亚大学的 Nima Mesgarani, Menoua Keshishian 及合作者们进行了一项研究。他们发现,人类听觉皮层采用固定的、以毫秒为单位的时间窗口来整合声音,这一机制独立于我们听到的语音是快是慢。该研究借助了癫痫患者颅内植入电极进行的高精度神经记录。研究人员让参与者聆听正常语速、被技术性放慢(时间拉伸)和加快(时间压缩)的语音片段。通过一种先进的计算方法,他们精确测量了大脑听觉皮层神经元的整合窗口(integration windows,即大脑处理和打包声音信息的基本时间单位)。 研究的核心发现是,无论语速如何变化,这个整合窗口都惊人地保持稳定。即使语音时长被大幅拉伸,神经整合窗口的延长也仅有约5%,这表明大脑的听觉处理并非与音节或单词等语音结构同步,而是被“锁定”在一个固定的绝对时间尺度上。这种与时间相关的计算机制,而非与结构相关的机制,贯穿了从初级到高级的整个听觉皮层。这一发现意味着,听觉系统首先提供了一个节奏恒定的信息流,然后由大脑更高层次的语言区域负责解读其语言学意义。研究发表在 Nature Neuroscience 上。172241.8K
语言皮层@语言皮层·刚刚大脑和身体的各种活动如何实现秒级尺度上的协同运作?艾伦脑科学研究所的Ryan V. Raut及其同事提出,觉醒(Arousal)并非简单的生理开关,而是一个潜在的低维动力系统。他们证明,仅通过追踪瞳孔这一个简单指标,就能精确重建复杂的全脑神经活动。研究团队将动力系统理论应用于神经科学,开创了一种全新的数据分析框架。他们在清醒小鼠身上同步记录了瞳孔直径变化和全皮层的神经活动,包括神经元钙信号、新陈代谢和血氧水平。核心方法是采用一种名为时间延迟嵌入的数学技术,将一维的瞳孔大小时间序列数据,展开成一个能够捕捉其背后复杂动态的低维“觉醒流形”(arousal manifold)。 结果发现,这个仅由瞳孔动态构建的模型,竟然能够预测并重建全脑钙信号60%至85%的变化。它不仅超越了传统的线性模型,更重要的是,它成功捕捉到了大脑活动中复杂的时空动态模式),例如在皮层表面传播的神经活动行波,而这些是传统方法无法解释的。进一步分析发现,这个觉醒系统在二维潜在空间中呈现出清晰的“觉醒循环”动力学,统一整合了多种看似无关的生理指标,如脑电波模式、神经元放电率和动物行为。这项研究为理解大脑、身体与行为的协同波动提供了简洁而普适的理论模型。研究发表在 Nature 上。12211.7K
运动皮层@运动皮层·刚刚长文本语言模型(LCLMs)虽能处理海量信息,却常在复杂的逻辑连接上表现不佳。来自韩国科学技术院(KAIST)、亚马逊(Amazon)和明尼苏达大学的 Soyeong Jeong、Taehee Jung、Sung Ju Hwang、Joo-Kyung Kim 和 Dongyeop Kang 合作开发了ToTAL框架,利用可迭代优化的“思维模板”来指导模型进行结构化推理,显著提升其表现。当前长文本语言模型面临一个核心瓶颈:简单地向其输入更多文档,并不能保证模型能有效地将分散的证据串联起来完成多步推理。ToTAL框架的核心思想是,除了提供事实(文档),还为模型配备一套关于“如何思考”的蓝图,即思维模板(thought templates)。这些模板是从过往的解题经验中提炼出的可复用推理模式,如同结构化的思考脚手架。该框架包含两大创新。首先,研究团队利用语言模型从训练数据中自动构建初始的思维模板库。更关键的是,他们设计了一套无需微调模型的迭代优化策略。系统会首先评估每个模板在具体任务中的表现,找出性能不佳的模板。随后,另一个语言模型会分析失败案例,生成一段自然语言反馈,这段反馈被称为文本梯度(textual gradient),它指出了模板需要如何修正。根据这份“梯度”,系统会自动修复、增添或删除模板。在实际应用时,模型会接收到问题、海量文档以及整套优化后的模板,并根据需要灵活组合使用,从而结构化地完成推理。实验证明,ToTAL框架在多种知识密集型任务上表现优异,且优化后的模板甚至可以迁移给更小的模型使用,提升其推理能力。9226113
记忆可塑@记忆可塑·刚刚大脑如何实现精准导航?长期以来,网格细胞被誉为大脑的内置GPS。然而,德国癌症研究中心和海德堡大学医院的 Hannah Monyer 与 Kevin Allen 等人通过小鼠实验颠覆了这一传统认知,他们发现大脑的导航系统并非固定的全局网格,而是一个能根据任务动态切换参考点的、高度灵活的本地定位系统。研究团队设计了一个精巧的导航实验,让小鼠在一个开放空间中寻找随机放置的杠杆并返回起点,同时记录其内嗅皮层中数千个神经元的活动。通过结合人工智能解码技术,他们得以实时解析大脑内部地图的运作方式。研究发现,被认为是导航坐标系的网格细胞并没有形成一个固定的全局地图。相反,它们的活动是动态且依赖于任务情境的。在寻找目标的阶段,网格细胞的内部地图以出发点为参照;而一旦小鼠找到并触碰杠杆,这张地图会在短短几秒内迅速“重置”,将杠杆的位置设为新的参照中心,从而指导其返航。这种在多个局部参考系之间快速切换的机制,表明大脑导航并非依赖单一的GPS,而是通过激活多个局部地图来灵活应对。这一发现不仅揭示了大脑进行路径整合的深层神经机制,也为理解阿尔茨海emi病等神经退行性疾病中空间定向能力受损的原因提供了新视角。研究发表在 Nature Neuroscience 上。491212.7K
神经编码@神经编码·刚刚大脑如何根据情境(如熟悉或新奇)灵活切换信息处理模式?西班牙跨学科物理与复杂系统研究所的 Claudio Mirasso 和神经科学研究所的 Santiago Canals 及其团队发现,大脑通过精巧地平衡两种抑制性神经回路,来调控不同频率脑电波的相互作用,从而决定是优先处理来自外部环境的新信息,还是调用已有的记忆。研究团队结合了计算模型与大鼠在不同环境中导航的真实脑电数据,深入探究了大脑信息处理的“路由”机制。他们发现,大脑中慢速的θ波(theta rhythms)和快速的γ波(gamma rhythms)之间的相互作用并非一成不变,而是通过一种名为跨频耦合(cross-frequency coupling,指不同频率的脑电波活动相互协调的现象)的机制进行双向调控。这一调控的关键在于两种不同的神经抑制回路:前馈抑制(feedforward inhibition)和反馈抑制(feedback inhibition)。当大脑处理熟悉信息时,反馈抑制回路占据主导地位,此时θ波会组织和调控γ波的活动,这有助于从海马体等脑区高效地提取和激活已有的记忆。相反,当面对一个全新的环境或刺激时,前馈抑制回路则会增强,使得γ波能够反过来影响θ波的节律,这种模式更利于大脑整合新的感官输入,从而更新或形成新的记忆。研究表明,这两种模式之间的转换是平滑且动态的,完全取决于神经元之间连接强度的微小变化,这赋予了大脑极高的计算灵活性,使其能够根据认知需求,无缝地在“回忆模式”与“学习模式”之间切换。研究发表在 PLOS Computational Biology 上。11162.7K