麻省理工学院的科学家们发现,使用大语言模型会导致学习能力"可能下降"。
本周《时代》杂志报道了该研究团队的发现。在一篇预印本论文中,科学家们详细介绍了这项为期数月研究的新数据。
麻省理工学院团队邀请了54名来自波士顿地区的参与者在20分钟内写一篇短文。参与者被分为三组:第一组在没有任何外部帮助的情况下写作,第二组可以使用搜索引擎,第三组使用ChatGPT。
研究人员重复进行了四次实验。在第四次实验中,使用ChatGPT的参与者与独立写作的参与者互换角色。第四次测试在第一次测试四个月后进行。
研究人员在论文中写道:"虽然最初的好处很明显,但正如我们在4个月的过程中所证明的,大语言模型组的参与者在各个层面——神经、语言、评分——都比仅使用大脑组的参与者表现更差。"
麻省理工学院团队通过参与者佩戴的脑电图(EEG)头戴设备收集测试数据。这些设备使用电极测量佩戴者的大脑活动。研究人员还向参与者提出了一系列问题,以补充头戴设备收集的数据。
脑电图设备使用一种称为dDTF(动态定向传递函数)连接性的指标来测量佩戴者的认知负荷。该指标描述了不同大脑区域相互作用的强度。据研究人员称,使用大语言模型的参与者在写作时的dDTF连接性比没有使用ChatGPT的参与者低55%。
配备大语言模型的组在写作练习中也表现出较低的额中线θ活动。额中线θ脑电波与涉及集中注意力的认知活动相关。研究人员发现:"在仅使用大脑组中突出的θ连接在大语言模型组中相对较弱或缺失。"
在项目的后续阶段,麻省理工学院团队要求研究参与者引用他们文章中的内容。使用大语言模型的组在这项任务上的表现不如其他两组。此外,该组参与者报告对他们所写文章的"感知所有权"较低。
研究人员写道:"基于我们研究的结果,我们证明了学习能力可能下降这一紧迫问题。这些发现支持一种教育模式,即延迟AI集成,直到学习者进行了充分的自主认知努力。这种方法可能会促进即时工具效率和持久的认知自主性。"
好文章,需要你的鼓励
康奈尔大学研究显示,大语言模型驱动的流量转化率比传统搜索高出近9倍。预计到2028年,更多用户将通过ChatGPT等LLM发现产品信息,而非传统搜索引擎。这种转变正在加速发生。LLM流量表现更像个人推荐而非关键词查询,用户查询长度已达23个词,会话时长超6分钟。品牌需要从SEO转向答案引擎优化AEO,确保在LLM对话中被提及,否则将变得不可见。
泰国SCBX金融集团开发的DoTA-RAG系统通过动态路由和混合检索技术,成功解决了大规模知识库检索中速度与准确性难以兼得的难题。系统将1500万文档的搜索空间缩小92%,响应时间从100秒降至35秒,正确性评分提升96%,为企业级智能问答系统提供了实用的技术方案。
Meta豪掷150亿美元押注AI数据工厂Scale AI,19岁辍学的华裔天才如何用"认知套利"打造138亿美元独角兽?"当80%行业信息都是噪音时,独立判断比技术优势更持久。"
中科院和字节跳动联合开发了VGR视觉锚定推理系统,突破了传统AI只能粗略"看图"的局限。该系统能在推理过程中主动关注图片关键区域,像人类一样仔细观察细节后再得出结论。实验显示VGR在图表理解等任务上性能大幅提升,同时计算效率更高,代表了多模态AI"可视化推理"的重要进展。