微软公司今天展示了其对消费级智能体人工智能未来的愿景,推出了最新模型Fara-7B,该模型可在个人电脑上本地运行,并具备使用计算机完成任务的智能能力。
微软在博客文章中表示,Fara-7B是其首个智能体小语言模型,专门为"计算机使用"任务而设计,这意味着它可以控制鼠标和键盘。
由于仅包含70亿个参数,它比当今最强大的大语言模型要小得多。例如,即使是2020年发布的GPT-3(远在AI热潮兴起之前)也拥有超过1750亿个参数。然而,其小巧的体积并不妨碍它实现微软所说的"最先进的性能",特别是与同等规模的其他模型相比。
据称,Fara-7B在性能上可与利用多个大语言模型的更大型、更耗资源的智能体系统竞争。例如,微软声称在专门配置用于网页浏览时,它可以超越OpenAI的GPT-4o。
微软解释说,Fara-7B通过视觉感知网站来工作,而不是使用独立的模型来解析屏幕上的信息,也不使用"可访问性树"等附加信息。相反,它使用与人类相同的方式与网站交互。
在三个视频演示中,微软展示了Fara-7B如何根据用户的简单指令在线购买产品、搜索信息并提供摘要,以及使用在线地图测量两个位置之间的距离。在视频中可以注意到,Fara-7B执行这些任务的速度比人类可能的速度要慢得多,并且用户需要在过程中批准某些步骤,比如输入账户登录信息。尽管如此,这仍然是对未来的有趣展示,在那个未来中,为人们自动化日常任务的AI模型将成为常态,特别是一旦它们变得更智能和更快速。
当然,微软的Copilot工具也可以像智能体一样代表用户自动化任务,但区别在于它不在PC上本地运行。相反,Copilot只能在连接到微软庞大的基于云的数据中心时运行,这意味着它必须始终在线。它还从用户的PC收集大量数据,这可能会引发隐私方面的担忧,尽管微软制定了各种政策来防止敏感信息落入不法分子手中。
Fara-7B能够本地运行是因为它直接安装在PC上,这意味着它只利用可用的本地硬件。因此,它不会向云端发送任何数据,从而减少延迟并改善隐私保护,微软表示。它建立在公司早期在小语言模型方面的努力基础上。去年,微软发布了一个名为Phi-4的模型,该模型足够小,可以在智能手机设备上本地运行。
不过,正如微软承认的那样,Fara-7B并非总是完美的。该公司表示,在测试过程中它确实出现了一些错误,特别是在一些更复杂的任务上准确性不足,有时在遵循指令方面会犯错误。它仍然在某种程度上容易出现幻觉,公司表示。
准确性问题是微软允许用户仅在隔离的沙盒环境中测试Fara-7B的原因,在该环境中可以监控其性能并防止用户向其发送敏感数据。该公司补充说,它已经为该模型开发了安全防护措施,因此它会拒绝执行任何恶意指令。
微软表示,Fara-7B正在Microsoft Foundry和Hugging Face上以MIT许可证形式提供,并且只能与其原型AI研究平台Magnetic-UI一起使用。未来,该公司将发布另一个版本的Fara-7B,专门设计用于在Windows 11 Copilot+ PC上运行,这些PC配备了处理AI模型的专用硬件。
Q&A
Q1:Fara-7B是什么?有什么特别之处?
A:Fara-7B是微软推出的首个智能体小语言模型,专门为"计算机使用"任务设计,可以控制鼠标和键盘。它只有70亿个参数,比其他大语言模型小得多,但可以在个人电脑上本地运行,不需要连接云端,从而减少延迟并改善隐私保护。
Q2:Fara-7B能做哪些具体的任务?
A:Fara-7B可以通过视觉感知网站并像人类一样与网站交互,完成多种任务。微软演示中展示了它可以在线购买产品、搜索信息并提供摘要,以及使用在线地图测量两个位置之间的距离,所有这些都基于用户的简单指令。
Q3:Fara-7B有什么局限性吗?
A:Fara-7B并非完美,在测试中出现了一些错误,特别是在复杂任务上准确性不足,有时在遵循指令方面会犯错,还容易出现幻觉。执行任务的速度也比人类慢,需要用户在过程中批准某些步骤。因此微软目前只允许在沙盒环境中测试。
好文章,需要你的鼓励
Turner & Townsend发布的2025年数据中心建设成本指数报告显示,AI工作负载激增正推动高密度液冷数据中心需求。四分之三的受访者已在从事AI数据中心项目,47%预计AI数据中心将在两年内占据一半以上工作负载。预计到2027年,AI优化设施可能占全球数据中心市场28%。53%受访者认为液冷技术将主导未来高密度项目。电力可用性成为开发商面临的首要约束,48%的受访者认为电网连接延迟是主要障碍。
MiroMind AI等机构联合研究团队提出了UniME-V2多模态嵌入学习新方法,通过让大型多模态语言模型充当"智能法官"来评估训练样本质量,解决了传统方法在负样本多样性和语义理解精度方面的问题。该方法引入软标签训练框架和困难负样本挖掘技术,在MMEB基准测试中取得显著性能提升,特别在组合式检索任务上表现出色,为多模态AI应用的准确性和用户体验改进提供了重要技术支撑。
亚马逊云服务宣布投资500亿美元,专门为美国政府构建AI高性能计算基础设施。该项目将新增1.3千兆瓦算力,扩大政府机构对AWS AI服务的访问,包括Amazon SageMaker、Amazon Bedrock和Claude聊天机器人等。预计2026年开工建设。AWS CEO表示此举将彻底改变联邦机构利用超级计算的方式,消除技术障碍,助力美国在AI时代保持领先地位。
南洋理工大学团队开发了Uni-MMMU基准测试,专门评估AI模型的理解与生成协同能力。该基准包含八个精心设计的任务,要求AI像人类一样"边看边想边画"来解决复杂问题。研究发现当前AI模型在这种协同任务上表现不平衡,生成能力是主要瓶颈,但协同工作确实能提升问题解决效果,为开发更智能的AI助手指明了方向。