微软旗下可扩展代码编辑器 Visual Studio Code 发布了 1.115 版本,重磅推出名为 Visual Studio Code Agents(VS Code 智能体)的配套应用预览版,专为智能体原生开发场景进行了深度优化。与此同时,此次更新还对编辑器内的智能体体验进行了改进,使其能够在后台运行终端命令。
VS Code 1.115 已于 4 月 8 日正式发布,用户可通过 Visual Studio Code 官网下载适用于 Windows、Mac 或 Linux 系统的版本。
作为 Visual Studio Code Insiders 早期访问功能,VS Code 智能体应用允许开发者在多个项目中并行运行智能体任务,即同时跨多个代码仓库开启多个智能体会话。据微软介绍,开发者无需离开该应用,即可追踪会话进度、内联查看代码差异、向智能体提供反馈,以及创建拉取请求(Pull Request)。此外,自定义指令、提示文件、自定义智能体、模型上下文协议(MCP)服务器、钩子及插件均可在该智能体应用中正常使用,同时也支持主题等 VS Code 个性化配置。
VS Code 1.115 还引入了两项改进,旨在优化智能体在后台运行终端命令时的体验。
其一,新增 send_to_terminal 工具,使智能体能够持续与后台终端进行交互。例如,当 SSH 会话在等待密码输入时超时,智能体仍可通过该工具发送所需输入,从而顺利完成连接。在此之前,后台终端处于只读模式,智能体仅能使用 get_terminal_output 查看终端状态,尤其当前台终端超时并被移至后台后,智能体便无法继续与其交互,这一限制在实际使用中颇为明显。
其二,新增实验性设置项 chat.tools.terminal.backgroundNotifications,允许智能体在后台终端命令执行完毕或需要用户输入时自动收到通知。该设置同样适用于超时后被移至后台的前台终端。智能体收到通知后,可采取相应操作,例如查看输出内容或通过 send_to_terminal 工具提供输入。此前,当终端命令在后台运行时,智能体必须手动调用 get_terminal_output 来检查状态,无法得知命令何时执行完毕或需要输入。
在本次更新的其他改进方面,当智能体调用浏览器工具时,工具调用界面现在会显示更具描述性的标签,并提供可直接跳转至目标浏览器标签页的链接。此外,Run Playwright Code 工具对长时运行脚本的支持也得到增强——默认情况下,执行时间超过 5 秒的脚本现在将返回延迟结果,供智能体进行轮询。
VS Code 1.115 在 VS Code 1.114 发布仅一周后便随之推出,后者主打简化 AI 对话体验。自 3 月 9 日发布的 VS Code 1.111 版本起,微软已将更新频率由每月一次调整为每周一次。
Q&A
Q1:VS Code 智能体应用有哪些主要功能?
A:VS Code 智能体应用是 Visual Studio Code 1.115 版本推出的配套应用,专为智能体原生开发设计。它支持开发者跨多个代码仓库并行运行多个智能体会话,同时可在应用内追踪进度、内联查看代码差异、向智能体提供反馈及创建拉取请求。自定义指令、MCP 服务器、提示文件、插件等功能均可正常使用,VS Code 主题等个性化设置也完全兼容。
Q2:send_to_terminal 工具解决了什么问题?
A:此前后台终端处于只读状态,智能体只能通过 get_terminal_output 查看终端状态,无法主动与后台终端交互。新增的 send_to_terminal 工具改变了这一限制,允许智能体向后台终端发送输入。例如在 SSH 会话因等待密码输入而超时的情况下,智能体依然可以发送密码完成连接,大幅提升了后台终端的可操作性。
Q3:VS Code 现在的更新频率是多久一次?
A:自 2025 年 3 月 9 日发布 VS Code 1.111 版本起,微软将 Visual Studio Code 的更新频率从原来的每月一次调整为每周一次。VS Code 1.115 正是这一新节奏下的最新版本,于 VS Code 1.114 发布仅一周后推出。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。