微软公司今天展示了其对消费级智能体人工智能未来的愿景,推出了最新模型Fara-7B,该模型可在个人电脑上本地运行,并具备使用计算机完成任务的智能能力。
微软在博客文章中表示,Fara-7B是其首个智能体小语言模型,专门为"计算机使用"任务而设计,这意味着它可以控制鼠标和键盘。
由于仅包含70亿个参数,它比当今最强大的大语言模型要小得多。例如,即使是2020年发布的GPT-3(远在AI热潮兴起之前)也拥有超过1750亿个参数。然而,其小巧的体积并不妨碍它实现微软所说的"最先进的性能",特别是与同等规模的其他模型相比。
据称,Fara-7B在性能上可与利用多个大语言模型的更大型、更耗资源的智能体系统竞争。例如,微软声称在专门配置用于网页浏览时,它可以超越OpenAI的GPT-4o。
微软解释说,Fara-7B通过视觉感知网站来工作,而不是使用独立的模型来解析屏幕上的信息,也不使用"可访问性树"等附加信息。相反,它使用与人类相同的方式与网站交互。
在三个视频演示中,微软展示了Fara-7B如何根据用户的简单指令在线购买产品、搜索信息并提供摘要,以及使用在线地图测量两个位置之间的距离。在视频中可以注意到,Fara-7B执行这些任务的速度比人类可能的速度要慢得多,并且用户需要在过程中批准某些步骤,比如输入账户登录信息。尽管如此,这仍然是对未来的有趣展示,在那个未来中,为人们自动化日常任务的AI模型将成为常态,特别是一旦它们变得更智能和更快速。
当然,微软的Copilot工具也可以像智能体一样代表用户自动化任务,但区别在于它不在PC上本地运行。相反,Copilot只能在连接到微软庞大的基于云的数据中心时运行,这意味着它必须始终在线。它还从用户的PC收集大量数据,这可能会引发隐私方面的担忧,尽管微软制定了各种政策来防止敏感信息落入不法分子手中。
Fara-7B能够本地运行是因为它直接安装在PC上,这意味着它只利用可用的本地硬件。因此,它不会向云端发送任何数据,从而减少延迟并改善隐私保护,微软表示。它建立在公司早期在小语言模型方面的努力基础上。去年,微软发布了一个名为Phi-4的模型,该模型足够小,可以在智能手机设备上本地运行。
不过,正如微软承认的那样,Fara-7B并非总是完美的。该公司表示,在测试过程中它确实出现了一些错误,特别是在一些更复杂的任务上准确性不足,有时在遵循指令方面会犯错误。它仍然在某种程度上容易出现幻觉,公司表示。
准确性问题是微软允许用户仅在隔离的沙盒环境中测试Fara-7B的原因,在该环境中可以监控其性能并防止用户向其发送敏感数据。该公司补充说,它已经为该模型开发了安全防护措施,因此它会拒绝执行任何恶意指令。
微软表示,Fara-7B正在Microsoft Foundry和Hugging Face上以MIT许可证形式提供,并且只能与其原型AI研究平台Magnetic-UI一起使用。未来,该公司将发布另一个版本的Fara-7B,专门设计用于在Windows 11 Copilot+ PC上运行,这些PC配备了处理AI模型的专用硬件。
Q&A
Q1:Fara-7B是什么?有什么特别之处?
A:Fara-7B是微软推出的首个智能体小语言模型,专门为"计算机使用"任务设计,可以控制鼠标和键盘。它只有70亿个参数,比其他大语言模型小得多,但可以在个人电脑上本地运行,不需要连接云端,从而减少延迟并改善隐私保护。
Q2:Fara-7B能做哪些具体的任务?
A:Fara-7B可以通过视觉感知网站并像人类一样与网站交互,完成多种任务。微软演示中展示了它可以在线购买产品、搜索信息并提供摘要,以及使用在线地图测量两个位置之间的距离,所有这些都基于用户的简单指令。
Q3:Fara-7B有什么局限性吗?
A:Fara-7B并非完美,在测试中出现了一些错误,特别是在复杂任务上准确性不足,有时在遵循指令方面会犯错,还容易出现幻觉。执行任务的速度也比人类慢,需要用户在过程中批准某些步骤。因此微软目前只允许在沙盒环境中测试。
好文章,需要你的鼓励
据报道,OpenAI正与亚马逊洽谈至少100亿美元的融资。亚马逊此前已是Anthropic的最大投资者,并为其建设了110亿美元的数据中心园区。若融资达成,OpenAI将采用AWS的Trainium系列AI芯片。Trainium3采用三纳米工艺,配备八核心和32MB SRAM内存。AWS可将数千台服务器连接成拥有百万芯片的集群。报道未透露具体估值,但OpenAI最近一次二次出售估值已达5000亿美元。
伊斯法罕大学研究团队通过分析Google Play商店21款AI教育应用的用户评论,发现作业辅导类应用获得超80%正面评价,而语言学习和管理系统类应用表现较差。用户赞赏AI工具的快速响应和个性化指导,但抱怨收费过高、准确性不稳定等问题。研究建议开发者关注自适应个性化,政策制定者建立相关规范,未来发展方向为混合AI-人类模型。
各行业企业存储的数据量持续攀升,5PB以上已成常态,10PB以上也日益普遍。2026年非结构化数据管理的主题是全面增长:更多数据、更多投资、更多痛点以及更多AI安全风险。AI应用加速普及、数字化信息激增以及富媒体和传感器数据大幅增加推动了数据增长。随着AI推理应用的发展,企业将意识到非结构化数据管理对AI投资回报率的关键作用。
这项由伊利诺伊大学香槟分校等四所院校联合完成的研究,提出了名为DaSH的层次化数据选择方法。该方法突破了传统数据选择只关注单个样本的局限,通过建模数据的天然层次结构,实现了更智能高效的数据集选择。在两个公开基准测试中,DaSH相比现有方法提升了高达26.2%的准确率,同时大幅减少了所需的探索步数。