Perplexity公司于周四宣布,其面向本地AI智能体的产品——Personal Computer,现已通过桌面客户端向所有Mac用户全面开放。
Personal Computer是Perplexity旗下通用多模型数字助手"Perplexity Computer"的功能延伸版本。与云端运行的前者不同,Personal Computer专为本地设备而设计,允许AI智能体访问用户的本地文件、应用程序及连接器,同时支持联网操作,从而协助用户处理个性化的多步骤工作流程。
正如Perplexity官方所描述的那样,Personal Computer"将Computer从纯云端环境带到了用户真正完成大部分工作的设备上"。
推出Personal Computer,是Perplexity为了抓住本地AI智能体日益增长的市场需求。此类产品能够代替用户执行各类任务,而Perplexity希望在提供这些能力的同时,打造一个比竞品更安全的AI计算环境。
Personal Computer上个月已正式亮相,但当时仅面向Perplexity Max订阅用户开放,且需要排队等候。此次更新后,所有Mac用户均可通过全新的Perplexity Mac客户端免费下载试用,但Personal Computer功能本身仍需Pro或Max订阅方可使用。
在功能层面,Personal Computer支持访问本地文件与原生Mac应用,并可在网络上执行操作。它还能协调调用各类工具与文件,接入超过400个连接器,并结合用户的个人上下文信息——所有这些均运行于Perplexity服务器上的安全开发环境中。
若与Perplexity旗下的AI驱动浏览器Comet搭配使用,Personal Computer还可直接操作基于网页的工具,无需额外配置连接器。
此外,Personal Computer专为Mac Mini等常驻设备上的自主智能体运行而设计,用户甚至可以通过iPhone远程访问,随时发起任务或审批操作请求。
在实际应用场景上,Perplexity表示Personal Computer适用于多种工作类型,包括处理电子表格、文档及涉及多种素材的复杂项目。由于该工具可跨应用协同运作,智能体能够完成诸如对比不同应用中的两个文件,或从一个应用中提取笔记并在另一个应用中生成草稿等任务。
随着Personal Computer正式全面开放,Perplexity表示将在未来数周内停用旧版Mac客户端,以便团队将精力集中投入到Personal Computer应用的持续开发中。
目前,新版Mac客户端仅支持直接下载安装,暂未上架Mac App Store。
Q&A
Q1:Perplexity Personal Computer是什么?有什么功能?
A:Perplexity Personal Computer是Perplexity推出的本地AI智能体产品,是其云端多模型数字助手"Perplexity Computer"的本地延伸版本。它允许AI智能体访问用户设备上的本地文件、原生应用和连接器,同时支持联网操作,可协助用户完成个性化的多步骤工作流程,例如跨应用对比文件、提取笔记生成草稿等。
Q2:Perplexity Personal Computer需要付费才能使用吗?
A:新版Perplexity Mac客户端任何人均可免费下载,但Personal Computer功能本身需要订阅Pro或Max套餐才能使用。此前该产品仅限Max订阅用户且需排队等候,此次更新后已向所有符合订阅条件的Mac用户全面开放。
Q3:Perplexity Personal Computer和其他本地AI智能体相比有什么安全优势?
A:与部分本地AI智能体产品因权限过高而存在安全风险不同,Perplexity Personal Computer将所有操作运行于Perplexity服务器上的安全开发环境中,旨在为用户提供更安全的AI计算环境。此外,用户可通过iPhone远程发起任务或审批操作,进一步加强了对智能体行为的管控。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。