麻省理工学院一项新的预印本研究发现,与独立完成相同任务相比,使用AI聊天机器人实际上会降低大脑活动,并可能导致事实记忆力下降。
为了了解使用大语言模型聊天机器人如何影响大脑,由MIT媒体实验室研究科学家娜塔莉亚·科斯米纳博士领导的团队为一群波士顿地区的大学生佩戴脑电图(EEG)头戴设备,要求他们在20分钟内写一篇短文。第一组被要求在没有任何外部帮助的情况下写作,第二组可以使用搜索引擎,第三组则在OpenAI的GPT-4o模型协助下写作。这个过程在几个月内重复了四次。
虽然尚未经过同行评议,但这项预发表研究结果显示,三组之间的大脑活动和相应的神经连接模式存在显著差异。直白地说,使用大语言模型组的大脑活动相当暗淡。
脑电图分析显示,每组都表现出不同的神经连接模式,大脑连接性"随着外部支持程度的增加而系统性降低"。换句话说,搜索引擎用户显示出较少的大脑参与度,而大语言模型组"引发了最弱的整体耦合"。
研究人员使用动态定向传递函数(dDTF)方法测量参与者的认知负荷,该方法测量与不同脑区间信息流相关的特定大脑活动。根据MIT研究人员的说法,dDTF能够考虑流动的强度和方向,使其成为"执行功能、语义处理和注意力调节"的良好代表。
研究人员表示,与仅依靠自身大脑进行写作的基线组相比,搜索引擎组显示出34%到48%的dDTF连接性降低。而大语言模型组则表现出更显著的dDTF信号幅度降低,最高达55%。
简而言之,依赖大语言模型以及在较小程度上依赖搜索引擎,都会显著降低任务相关的大脑连接性,表明在论文写作任务中认知参与度较低。
研究人员在解释结果时说:"纯大脑组利用广泛分布的神经网络生成内部内容。搜索引擎组依赖视觉信息管理和调节控制的混合策略;而大语言模型组则优化了AI生成建议的程序性整合。"
研究人员解释说,这些区别对教育实践和我们对学习的理解产生了"重大影响",即在信息的内部综合和外部支持之间似乎存在明确的权衡。
在回忆测试和对所写内容的感知所有权方面,大语言模型组的参与者在所有层面上都表现得比纯大脑组的同伴更差。
"在这项研究中,我们展示了学习技能可能下降这一紧迫问题,"研究人员说。"大语言模型组的参与者在所有层面上都比纯大脑组的同伴表现更差。"
第四次论文写作强化了这些发现。在最后一次研究中,最初被告知依赖大脑或大语言模型的参与者交换了角色,并被给予另一套论文指导。不出所料,当被要求依赖自己的思维过程时,大语言模型组表现不佳。
"在第四次会议中,移除AI支持显著损害了原大语言模型组的参与者表现,"研究人员说。而另一组则相反。"所谓的大脑转大语言模型组在被允许在熟悉话题上使用大语言模型时,在所有脑电图频段上都表现出大脑连接性的显著增加。"
研究结果表明,在学习过程早期使用AI"可能导致浅层编码",从而导致事实回忆不佳和缺乏学习,因为所有努力都被外包了。另一方面,先使用认知能力学习某些内容,然后使用AI进一步研究技能,是完全可以接受的。
MIT团队总结说:"综合来看,这些发现支持一种教育模式,即在学习者进行充分的自主认知努力之前延迟AI整合。这种方法可能既促进即时工具效率,又保持持久的认知自主性。"
这可能不是一个令人震惊的结论,但考虑到越来越多的年轻人依赖AI做学校作业,这个问题需要在世界产生整整一代智力发育不良的AI成瘾者之前得到解决。
科斯米纳在给《The Register》的邮件中表示,她不想使用"愚蠢、笨拙或脑腐"等词来形容AI对我们的影响,认为这对她团队所做的工作是一种伤害。不过,它确实产生了需要解决的影响。
论文总结道:"虽然这些工具为增强学习和信息获取提供了前所未有的机会,但它们对认知发展、批判性思维和智力独立性的潜在影响需要非常仔细的考虑和持续的研究。"
由于论文尚未经过同行评议,科斯米纳指出其结论"应谨慎对待,视为初步结果"。尽管如此,她写道,评议前的发现仍可作为"理解AI对学习的认知和实践影响的初步指南"。
该团队希望未来的研究不仅关注大语言模型在文本之外模式中的使用,还关注AI对记忆保持、创造力和书面流利度的影响。
至于MIT团队接下来计划研究什么,科斯米纳告诉我们,团队正将注意力转向一项类似的研究,关注氛围编程,或使用AI从自然语言提示生成代码。
"我们已经收集了数据,目前正在进行分析和起草工作,"科斯米纳说。她补充说,由于这是首批研究AI对人脑影响的此类研究之一,她预计这项工作将在未来引发更多研究,"采用不同的协议、人群、任务、方法论,这将增进我们对这项技术在生活各个方面使用的总体理解。"
随着AI以日益加快的速度渗透到我们生活的每个方面,将有大量研究工作要做。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。