一项新研究表明,人脑理解口语的过程采用了逐步处理的方式,这与先进的AI语言模型的运行机制极为相似。研究人员通过记录人们聆听口述故事时的大脑活动发现,大脑反应的后期阶段与AI系统的深层层级相匹配,特别是在布罗卡区等著名的语言区域中。这一结果对长期以来基于规则的语言理解理论提出了质疑,并得到了新发布的公共数据集的支持,为研究大脑如何形成意义提供了强大的新途径。
这项发表在《自然通讯》上的研究由希伯来大学的阿里尔·戈德斯坦博士领导,合作者包括谷歌研究院的马里亚诺·夏因博士以及普林斯顿大学的乌里·哈森教授和埃里克·哈姆。研究团队共同发现了人类理解语音与现代AI模型处理文本之间的惊人相似性。
科学家们使用皮层脑电图记录技术,追踪参与者聆听30分钟播客时语言处理过程中大脑活动的时间和位置。他们发现,大脑遵循一个结构化序列,与GPT-2和Llama 2等大语言模型的分层设计高度匹配。
大脑如何随时间构建意义
当我们聆听别人说话时,大脑并非一次性理解全部含义。相反,每个词都会经过一系列神经步骤。戈德斯坦及其同事表明,这些步骤在时间上的展开方式反映了AI模型处理语言的方式。AI的早期层级专注于基本的词汇特征,而深层层级则结合上下文、语调和更广泛的含义。
人脑活动遵循了同样的模式。早期的神经信号与AI处理的早期阶段相匹配,而后期的大脑反应则与模型的深层层级保持一致。这种时间匹配在布罗卡区等高级语言区域中特别强烈,当与AI深层层级关联时,这些区域的反应峰值出现得更晚。
戈德斯坦博士表示:"最令我们惊讶的是,大脑意义的时间展开过程与大语言模型内部的变换序列如此密切匹配。尽管这些系统的构建方式截然不同,但两者似乎都趋向于类似的逐步构建理解的方式。"
这些发现的重要意义
研究表明,人工智能不仅能够生成文本,还可能帮助科学家更好地理解人脑如何创造意义。多年来,人们认为语言主要依赖于固定符号和严格的层次结构。这些结果挑战了这一观点,转而指向了一个更灵活和统计性的过程,其中意义通过上下文逐渐显现。
研究人员还测试了传统的语言学元素,如音素和词素。这些经典特征在解释实时大脑活动方面不如AI模型产生的上下文表示有效。这支持了大脑更多依赖于流动上下文而非严格语言构建块的观点。
语言神经科学的新资源
为了推动该领域的发展,研究团队已将完整的神经记录和语言特征数据集公开。这一开放数据集使世界各地的研究人员能够比较语言理解理论,并开发出更接近人类思维工作方式的计算模型。
Q&A
Q1:这项研究发现了人脑和AI在语言处理上有什么相似性?
A:研究发现人脑理解口语采用逐步处理方式,与大语言模型的运行机制极为相似。大脑早期神经信号对应AI的早期层级处理基本词汇特征,后期大脑反应则与AI深层层级匹配,结合上下文和更广泛含义,特别是在布罗卡区等语言区域中这种匹配更加明显。
Q2:这项发现对传统语言理解理论有什么影响?
A:研究结果挑战了长期以来基于规则的语言理解理论。传统观点认为语言主要依赖固定符号和严格层次结构,但研究发现传统语言学元素如音素和词素在解释实时大脑活动方面不如AI模型的上下文表示有效,支持了大脑更多依赖流动上下文的观点。
Q3:研究团队为科学界提供了什么新资源?
A:研究团队已将完整的神经记录和语言特征数据集公开发布,创建了一个开放数据集。这一资源使世界各地的研究人员能够比较不同的语言理解理论,开发出更接近人类思维工作方式的计算模型,为语言神经科学研究提供了强大的新工具。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。