微软Visual Studio Code(VS Code)团队发布了1.103版本,引入了包括GitHub Copilot聊天检查点在内的新功能。
当开发者意识到最近几次AI聊天交互的结果出现问题时,"恢复检查点"选项将把聊天和工作区都回退到创建检查点时的状态。还提供了"重做"选项以应对进一步的想法变更。该功能目前处于预览状态。
文档显示,检查点会在"聊天交互的关键时刻"自动创建,这些时刻似乎与聊天请求保持一致。相关功能还会显示每个聊天请求结束时修改了哪些文件。
聊天检查点只是众多AI相关更新中的一项,其他功能包括为MCP(模型上下文协议)服务器重新设计的工具选择器、支持OpenAI GPT-5,以及移除单次聊天请求中128个MCP工具限制的解决方案。智能体模式还新增了实验性任务列表功能,Copilot可以自主执行高级指令。任务列表现在出现在聊天面板中,并随着每个任务完成而更新。
另一个预览版聊天增强功能是使用KaTeX渲染数学表达式的能力。该功能默认关闭,但可以在设置中启用。
VS Code现在内置AI统计功能(预览版),记录AI插入字符与手动输入字符的百分比。虽然这是一个粗略的衡量标准,但能够提供开发者AI使用程度的某些指示。
仔细阅读发布说明的用户还会发现一些非AI更改,最值得注意的是对Git工作树的支持,这是一个从2019年2月就被请求的功能。Git工作树允许开发者同时检出多个分支。
此版本支持新的TypeScript 5.9版本。TypeScript和JavaScript开发者还获得了新的用户界面,通过IntelliSense在鼠标悬停在符号上时显示类型信息。基本信息默认显示,但可以通过加号符号展开以显示复杂类型的更多详细信息。
VS Code的1.0版本于2016年4月发布,其初衷是构建"感觉像原生应用的基于浏览器的代码编辑器",结合Electron工具包后成为跨平台桌面编辑器和轻量级IDE。
由于良好的设计、易于扩展性和免费提供,VS Code从一开始就很受欢迎。尽管微软开源了产品核心(Code-OSS形式),但仍保留了VS Code发行版和扩展市场的所有权。公司利用它来推广GitHub Copilot,在产品中构建了许多Copilot专用功能,并在月度更新中重点关注这些功能,这可能让不使用Copilot或完全避免AI辅助的开发者感到被忽视。
微软/GitHub Copilot在VS Code中的专注是否降低了其受欢迎程度?根据最新的StackOverflow调查,76.2%的专业开发者使用VS Code,比2024年的74%有所上升,这一数字是排名第二的Visual Studio(29.7%)的两倍多,仅略高于排名第三的IntelliJ IDEA(28.4%)。因此答案似乎是:目前还没有。
不过,StackOverflow调查虽然基于大样本,但只显示了有多少开发者有时使用VS Code,而不是他们主要使用的编辑器。考虑到VS Code很难避免使用,值得注意的是,快速小巧的Rust驱动的Zed首次出现在调查中,占有7.5%的份额,显示了对其他选择的至少一些兴趣。
Q&A
Q1:VS Code聊天检查点功能是什么?
A:VS Code聊天检查点是GitHub Copilot的新功能,当开发者意识到AI聊天交互结果出现问题时,可以使用"恢复检查点"选项将聊天和工作区回退到创建检查点时的状态,还提供重做选项以应对进一步的想法变更。
Q2:VS Code 1.103版本还有哪些AI相关更新?
A:除了聊天检查点,还包括为MCP服务器重新设计的工具选择器、支持OpenAI GPT-5、移除单次聊天请求中128个MCP工具限制的解决方案、智能体模式的实验性任务列表功能,以及使用KaTeX渲染数学表达式的能力。
Q3:VS Code的市场占有率如何?
A:根据最新StackOverflow调查,VS Code被76.2%的专业开发者使用,比2024年的74%有所上升,这一数字是排名第二的Visual Studio(29.7%)的两倍多,显示其在开发者中仍然非常受欢迎。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。