大语言模型如ChatGPT的兴起引发了广泛担忧,《纽约杂志》最近一篇文章形象地描述为"每个人都在通过作弊混过大学"。现在,OpenAI正在推出一种新的"学习模式",该公司声称这种模式不是为学生提供答案或代替他们完成作业,而是帮助他们"建立对复杂主题的深度理解"。
学习模式并非全新的ChatGPT模型,而是一系列"定制系统指令",OpenAI表示这些指令是"与教师、科学家和教育专家合作编写的,体现了支持深度学习的核心行为准则"。与标准ChatGPT可能提供的常规主题总结不同——OpenAI一位员工将其比作"迷你教科书章节"——学习模式以"脚手架式"结构缓慢展开新信息。该模式设计为采用苏格拉底式风格提出"引导性问题",并定期进行"知识检查"和个性化反馈,确保用户理解后再继续。
目前尚不清楚有多少学生会使用这种引导式学习工具,而不是直接要求ChatGPT从一开始就生成答案。
在Ars Technica参加的早期演示中,学习模式对"教我博弈论"的请求首先询问用户对该主题的整体熟悉程度以及将如何使用这些信息。ChatGPT介绍了一些核心博弈论概念的简短概览,然后暂停提问,再提供相关的现实世界例子。
在另一个涉及经典"火车速度"数学问题的例子中,学习模式抵制了模拟学生多次直接要答案的尝试,而是试图温和地将对话重新引导到如何使用现有信息来得出答案。OpenAI代表告诉Ars,如果反复询问,学习模式最终会提供直接解决方案,但默认行为更符合苏格拉底式辅导风格。
全天候智能导师
OpenAI表示,在构建学习模式时,受到了"高级用户"的启发,这些用户已经在尝试通过特定提示将ChatGPT改造成个人导师或考试准备工具。通过学习模式,OpenAI表示希望让技术能力较弱的用户也能获得"一个永远不会厌倦他们问题的个人导师"。
OpenAI表示与教育专家合作,这些专家评估了该模式的行为,并为模型提供了理想导师在特定情况下如何回应的"黄金示例"。该公司还咨询了提前获得新功能使用权限的大学生群体。
在Ars参加的新闻发布会上,一些学生热情地谈论学习模式推动他们获取下一个重要知识点的能力,以及使用该工具时对自己学习能力获得的信心。一名学生谈到了去助教办公室寻求帮助时的脆弱和尴尬感,以及通过ChatGPT随时获得数小时辅导的灵活性。
可信度如何?
熟悉大语言模型长期存在编造虚假信息倾向的人可能不愿意使用这类模型作为学习辅助工具。在新闻稿中,OpenAI承认当前的学习模式提示"在对话中会导致一些不一致的行为和错误"。
尽管如此,公司发言人告诉Ars,学习模式的幻觉风险较低,因为模型以较小的信息块处理信息,并在过程中进行校准。
虽然学习模式并非专门为解决ChatGPT被用于作业作弊的担忧而设计,但发言人告诉Ars,它可以帮助缓解教育工作者对学生仅仅使用大语言模型逃避自主学习的担忧。学习模式将在"几周内"添加到ChatGPT Edu产品中,供希望为学生提供不同AI体验的订阅学校使用。
目前,OpenAI表示专门的学习模式系统提示是未来将类似行为"直接训练到主要模型中"的"第一步"。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。