Google今天在伦敦举行的云峰会上发布了Firebase Studio的更新,新增了Gemini命令行界面(CLI)集成、初步的模型上下文协议(MCP)支持以及"智能体模式"。
智能体模式融合了熟悉和全新的功能元素。该模式提供三个不同层次的AI协作方式。"Ask"是用于头脑风暴和规划的对话模式。还有一个人机协作智能体,Gemini会建议代码更改,但开发者必须在应用前进行审批。最后是第二种智能体模式,几乎完全自主运行——敏感操作仍需获得许可——但Gemini可以自主编写代码、修复错误并构建功能。
这些更新在Google伦敦云峰会的第二场主题演讲中展示,相比4月发布的版本有了显著改进。Google声称已有"数百万"应用使用该平台开发,但对于将开发者分为实验用户和生产用户的具体数据则较为保守。
我们进行了试用,虽然能够通过提示语启动应用程序,但提示语的制作需要谨慎。该服务还未达到非工程师用户能够轻松制作精美应用的程度,但正在朝这个方向发展。
至于其他更新,Gemini CLI集成对于偏好命令行工作且不喜欢切换窗口的开发者来说是一个受欢迎的补充,MCP集成也很实用,尽管这可以说是AI驱动工具集应该具备的基本功能。
Firebase完全聚焦于AI智能体——在此情况下,Google对该术语的定义是无需人工批准即可自主构建代码。这对于快速生成原型或概念验证很有用,但距离生产就绪还有一定距离。例如,目前无法为用户应用基于角色的访问控制——管理员可能希望某些用户只有只读权限。
当我们上次关注Firebase时,它展现出了前景,但也充满了炒作(这在AI领域很常见)。最新发布在一定程度上兑现了承诺。虽然所创建的应用和服务仍相对简单,但复杂性有所提升,且创建的内容在Google云上运行。然而,开发速度令人印象深刻。
虽然编程助手工具众多,但Firebase致力于闭环开发的努力暗示了一个可能让开发者夜不能寐的未来——或者,如果AI布道者是对的,将迎来一个新的生产力时代。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Coursera在2025年连接大会上宣布多项AI功能更新。10月将推出角色扮演功能,通过AI人物帮助学生练习面试技巧并获得实时反馈。新增AI评分系统可即时批改代码、论文和视频作业。同时引入完整性检查和监考系统,通过锁定浏览器和真实性验证打击作弊行为,据称可减少95%的不当行为。此外,AI课程构建器将扩展至所有合作伙伴,帮助教育者快速设计课程。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。