Google今天在伦敦举行的云峰会上发布了Firebase Studio的更新,新增了Gemini命令行界面(CLI)集成、初步的模型上下文协议(MCP)支持以及"智能体模式"。
智能体模式融合了熟悉和全新的功能元素。该模式提供三个不同层次的AI协作方式。"Ask"是用于头脑风暴和规划的对话模式。还有一个人机协作智能体,Gemini会建议代码更改,但开发者必须在应用前进行审批。最后是第二种智能体模式,几乎完全自主运行——敏感操作仍需获得许可——但Gemini可以自主编写代码、修复错误并构建功能。
这些更新在Google伦敦云峰会的第二场主题演讲中展示,相比4月发布的版本有了显著改进。Google声称已有"数百万"应用使用该平台开发,但对于将开发者分为实验用户和生产用户的具体数据则较为保守。
我们进行了试用,虽然能够通过提示语启动应用程序,但提示语的制作需要谨慎。该服务还未达到非工程师用户能够轻松制作精美应用的程度,但正在朝这个方向发展。
至于其他更新,Gemini CLI集成对于偏好命令行工作且不喜欢切换窗口的开发者来说是一个受欢迎的补充,MCP集成也很实用,尽管这可以说是AI驱动工具集应该具备的基本功能。
Firebase完全聚焦于AI智能体——在此情况下,Google对该术语的定义是无需人工批准即可自主构建代码。这对于快速生成原型或概念验证很有用,但距离生产就绪还有一定距离。例如,目前无法为用户应用基于角色的访问控制——管理员可能希望某些用户只有只读权限。
当我们上次关注Firebase时,它展现出了前景,但也充满了炒作(这在AI领域很常见)。最新发布在一定程度上兑现了承诺。虽然所创建的应用和服务仍相对简单,但复杂性有所提升,且创建的内容在Google云上运行。然而,开发速度令人印象深刻。
虽然编程助手工具众多,但Firebase致力于闭环开发的努力暗示了一个可能让开发者夜不能寐的未来——或者,如果AI布道者是对的,将迎来一个新的生产力时代。
好文章,需要你的鼓励
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AI虽具备变革企业洞察力的潜力,但成功依赖于数据质量。大多数AI项目失败源于数据混乱分散而非算法局限。谷歌BigQuery云数据AI平台打破数据孤岛,简化治理,加速企业AI应用。通过AI自动化数据处理,实现实时分析,并与Vertex AI深度集成,使企业能够高效处理结构化和非结构化数据,将智能商业转型从愿景变为现实。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。