麻省理工学院的科学家们发现,使用大语言模型会导致学习能力"可能下降"。
本周《时代》杂志报道了该研究团队的发现。在一篇预印本论文中,科学家们详细介绍了这项为期数月研究的新数据。
麻省理工学院团队邀请了54名来自波士顿地区的参与者在20分钟内写一篇短文。参与者被分为三组:第一组在没有任何外部帮助的情况下写作,第二组可以使用搜索引擎,第三组使用ChatGPT。
研究人员重复进行了四次实验。在第四次实验中,使用ChatGPT的参与者与独立写作的参与者互换角色。第四次测试在第一次测试四个月后进行。
研究人员在论文中写道:"虽然最初的好处很明显,但正如我们在4个月的过程中所证明的,大语言模型组的参与者在各个层面——神经、语言、评分——都比仅使用大脑组的参与者表现更差。"
麻省理工学院团队通过参与者佩戴的脑电图(EEG)头戴设备收集测试数据。这些设备使用电极测量佩戴者的大脑活动。研究人员还向参与者提出了一系列问题,以补充头戴设备收集的数据。
脑电图设备使用一种称为dDTF(动态定向传递函数)连接性的指标来测量佩戴者的认知负荷。该指标描述了不同大脑区域相互作用的强度。据研究人员称,使用大语言模型的参与者在写作时的dDTF连接性比没有使用ChatGPT的参与者低55%。
配备大语言模型的组在写作练习中也表现出较低的额中线θ活动。额中线θ脑电波与涉及集中注意力的认知活动相关。研究人员发现:"在仅使用大脑组中突出的θ连接在大语言模型组中相对较弱或缺失。"
在项目的后续阶段,麻省理工学院团队要求研究参与者引用他们文章中的内容。使用大语言模型的组在这项任务上的表现不如其他两组。此外,该组参与者报告对他们所写文章的"感知所有权"较低。
研究人员写道:"基于我们研究的结果,我们证明了学习能力可能下降这一紧迫问题。这些发现支持一种教育模式,即延迟AI集成,直到学习者进行了充分的自主认知努力。这种方法可能会促进即时工具效率和持久的认知自主性。"
好文章,需要你的鼓励
随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。
哈佛、MIT联合研究揭示人类语言理解的神经机制,发现大脑通过"信息出口"将语言从核心系统传递至专业脑区实现深度理解。研究提出浅层与深层理解的区别,为人工智能发展提供重要启示,表明真正智能需要多系统协作而非单一优化。该发现可能改变我们对语言认知的理解。
英国正式推出DaRe2THINK数字平台,旨在简化NHS全科医生参与临床试验的流程。该平台由伯明翰大学和MHRA临床实践研究数据链开发,能够安全传输GP诊所与NHS试验研究人员之间的健康数据,减少医生的管理负担。平台利用NHS现有健康信息,安全筛查来自450多家诊所的1300万患者记录,并使用移动消息系统保持试验对象参与度,为传统上无法参与的人群开辟了研究机会。
腾讯混元等团队开发出革命性的AI视频生成自我评判系统PAVRM和训练方法PRFL,让AI能在创作过程中实时评估和改进视频质量,无需等到完成才反馈。该技术使视频动态表现提升56%,人体结构准确性提升21.5%,训练效率提升1.4倍,为AI视频生成质量带来质的飞跃。