麻省理工学院一项新的预印本研究发现,与独立完成相同任务相比,使用AI聊天机器人实际上会降低大脑活动,并可能导致事实记忆力下降。
为了了解使用大语言模型聊天机器人如何影响大脑,由MIT媒体实验室研究科学家娜塔莉亚·科斯米纳博士领导的团队为一群波士顿地区的大学生佩戴脑电图(EEG)头戴设备,要求他们在20分钟内写一篇短文。第一组被要求在没有任何外部帮助的情况下写作,第二组可以使用搜索引擎,第三组则在OpenAI的GPT-4o模型协助下写作。这个过程在几个月内重复了四次。
虽然尚未经过同行评议,但这项预发表研究结果显示,三组之间的大脑活动和相应的神经连接模式存在显著差异。直白地说,使用大语言模型组的大脑活动相当暗淡。
脑电图分析显示,每组都表现出不同的神经连接模式,大脑连接性"随着外部支持程度的增加而系统性降低"。换句话说,搜索引擎用户显示出较少的大脑参与度,而大语言模型组"引发了最弱的整体耦合"。
研究人员使用动态定向传递函数(dDTF)方法测量参与者的认知负荷,该方法测量与不同脑区间信息流相关的特定大脑活动。根据MIT研究人员的说法,dDTF能够考虑流动的强度和方向,使其成为"执行功能、语义处理和注意力调节"的良好代表。
研究人员表示,与仅依靠自身大脑进行写作的基线组相比,搜索引擎组显示出34%到48%的dDTF连接性降低。而大语言模型组则表现出更显著的dDTF信号幅度降低,最高达55%。
简而言之,依赖大语言模型以及在较小程度上依赖搜索引擎,都会显著降低任务相关的大脑连接性,表明在论文写作任务中认知参与度较低。
研究人员在解释结果时说:"纯大脑组利用广泛分布的神经网络生成内部内容。搜索引擎组依赖视觉信息管理和调节控制的混合策略;而大语言模型组则优化了AI生成建议的程序性整合。"
研究人员解释说,这些区别对教育实践和我们对学习的理解产生了"重大影响",即在信息的内部综合和外部支持之间似乎存在明确的权衡。
在回忆测试和对所写内容的感知所有权方面,大语言模型组的参与者在所有层面上都表现得比纯大脑组的同伴更差。
"在这项研究中,我们展示了学习技能可能下降这一紧迫问题,"研究人员说。"大语言模型组的参与者在所有层面上都比纯大脑组的同伴表现更差。"
第四次论文写作强化了这些发现。在最后一次研究中,最初被告知依赖大脑或大语言模型的参与者交换了角色,并被给予另一套论文指导。不出所料,当被要求依赖自己的思维过程时,大语言模型组表现不佳。
"在第四次会议中,移除AI支持显著损害了原大语言模型组的参与者表现,"研究人员说。而另一组则相反。"所谓的大脑转大语言模型组在被允许在熟悉话题上使用大语言模型时,在所有脑电图频段上都表现出大脑连接性的显著增加。"
研究结果表明,在学习过程早期使用AI"可能导致浅层编码",从而导致事实回忆不佳和缺乏学习,因为所有努力都被外包了。另一方面,先使用认知能力学习某些内容,然后使用AI进一步研究技能,是完全可以接受的。
MIT团队总结说:"综合来看,这些发现支持一种教育模式,即在学习者进行充分的自主认知努力之前延迟AI整合。这种方法可能既促进即时工具效率,又保持持久的认知自主性。"
这可能不是一个令人震惊的结论,但考虑到越来越多的年轻人依赖AI做学校作业,这个问题需要在世界产生整整一代智力发育不良的AI成瘾者之前得到解决。
科斯米纳在给《The Register》的邮件中表示,她不想使用"愚蠢、笨拙或脑腐"等词来形容AI对我们的影响,认为这对她团队所做的工作是一种伤害。不过,它确实产生了需要解决的影响。
论文总结道:"虽然这些工具为增强学习和信息获取提供了前所未有的机会,但它们对认知发展、批判性思维和智力独立性的潜在影响需要非常仔细的考虑和持续的研究。"
由于论文尚未经过同行评议,科斯米纳指出其结论"应谨慎对待,视为初步结果"。尽管如此,她写道,评议前的发现仍可作为"理解AI对学习的认知和实践影响的初步指南"。
该团队希望未来的研究不仅关注大语言模型在文本之外模式中的使用,还关注AI对记忆保持、创造力和书面流利度的影响。
至于MIT团队接下来计划研究什么,科斯米纳告诉我们,团队正将注意力转向一项类似的研究,关注氛围编程,或使用AI从自然语言提示生成代码。
"我们已经收集了数据,目前正在进行分析和起草工作,"科斯米纳说。她补充说,由于这是首批研究AI对人脑影响的此类研究之一,她预计这项工作将在未来引发更多研究,"采用不同的协议、人群、任务、方法论,这将增进我们对这项技术在生活各个方面使用的总体理解。"
随着AI以日益加快的速度渗透到我们生活的每个方面,将有大量研究工作要做。
好文章,需要你的鼓励
微软高级软件工程师Alice Vinogradova将自己用SAP ABAP语言编写的向量数据库ZVDB移植到了搭载Z80处理器的经典计算机Sinclair ZX Spectrum上。她发现ABAP(1983年)和Z80(1976年)几乎是同时代产物,都诞生于内存珍贵、每个字节都很重要的计算时代。通过应用Z80优化技术,尽管时钟频率相差857倍,但代码运行速度仅慢3-6倍。她认为这些老式优化技术具有普遍适用性,在现代硬件上依然有效。
这项由东京科学技术大学等机构联合发布的研究提出了UMoE架构,通过重新设计注意力机制,实现了注意力层和前馈网络层的专家参数共享。该方法在多个数据集上显著优于现有的MoE方法,同时保持了较低的计算开销,为大语言模型的高效扩展提供了新思路。
韩国电子巨头三星宣布收购美国西雅图数字健康技术公司Xealth,进一步扩大在健康领域的布局。Xealth专注于帮助医疗专业人员将数字健康技术整合到日常实践中,与70多家数字健康技术供应商合作,应用覆盖美国500多家医院。此次收购将推动三星向连接医疗保健平台转型,结合其在传感器技术和可穿戴设备方面的优势,完善Samsung Health平台功能。
小米团队开发的MiMo-7B模型证明了AI领域"小而精"路线的可行性。这个仅有70亿参数的模型通过创新的预训练数据处理、三阶段训练策略和强化学习优化,在数学推理和编程任务上超越了320亿参数的大模型,甚至在某些指标上击败OpenAI o1-mini。研究团队还开发了高效的训练基础设施,将训练速度提升2.29倍。该成果已完全开源,为AI民主化发展提供了新思路。