去年10月,Adobe曾以"Project Moonlight"为代号预览了一款全新助手产品,该助手能够调用Acrobat、Photoshop和Express等多款Adobe应用来帮助用户完成各类任务。如今,这款产品正式以Firefly AI助手的名称对外发布。
Firefly AI助手将在未来数周内进入公开测试阶段。Adobe目前尚未说明该AI助手是否会采用有别于Firefly现行积分订阅制度的独立定价方案。
与其他创意工具类似,用户只需用文字描述想要创作的内容,Firefly AI助手便会自动处理后续流程。Adobe表示,该助手可跨越Firefly、Photoshop、Premiere、Lightroom、Express、Illustrator等多款应用协同工作,替用户完成各类操作任务。
用户可通过文字提示、按钮和滑块等方式灵活控制AI助手的输出结果。该助手能够主动建议操作方案、在不同动作和应用之间进行智能调度并执行完整工作流,同时也为用户随时介入保留了充足的操作空间。
此外,助手还会根据用户当前的项目内容动态呈现相应的控制选项。例如,当用户正在编辑一组以森林为背景的产品照片时,助手可能会提供一个简单的滑块,让用户轻松调节画面中树木与植被的比例。Adobe表示,该助手将随着使用时间的积累,逐步深入了解用户的创作偏好,并据此提供更具针对性的操作建议。
Adobe还为该助手推出了"技能"功能,每项技能由多个操作步骤组合而成。以"社交媒体素材"技能为例,它可以帮助用户将图片适配至不同平台,自动完成裁剪或扩展画幅、优化文件大小以及归档输出结果等一系列操作。
Adobe一直在持续推进面向Photoshop、Express和Acrobat的AI驱动助手产品线。公司于周三表示,正在探索如何让这些助手与第三方大语言模型实现更深度的协同配合。
Canva和Figma等竞争对手同样在积极布局智能体工作流,但Adobe认为自身的核心优势在于将旗下现有的成熟工具进行统一整合。
"借助Firefly AI助手以及智能体体验,我们有机会降低用户学习这一庞大工具体系的门槛,让我们产品的全部价值都能触手可及地呈现在客户面前——这正是我们所面临的重大机遇。"Adobe人工智能与创新、创意及生产力业务副总裁Alexandru Costin在接受TechCrunch采访时如是说道。
与此同时,Adobe也在持续为Firefly工具本身增添新功能。AI视频编辑器新增了语音降噪、混响调节与音乐调整选项,以及色彩调整工具,并实现了与Adobe图库的直接集成。此外,公司还将Kling 3.0和Kling 3.0 Omni模型纳入Firefly第三方AI模型库。
Q&A
Q1:Firefly AI助手是什么?它能帮用户做什么?
A:Firefly AI助手是Adobe正式推出的一款AI智能体产品,前身为"Project Moonlight"项目。它能够跨越Photoshop、Premiere、Lightroom、Express、Illustrator等多款Adobe应用协同工作,用户只需用文字描述需求,助手便会自动规划并执行完整的创作工作流,同时支持通过滑块、按钮等方式实时干预输出结果。
Q2:Firefly AI助手的"技能"功能是怎么用的?
A:Adobe为Firefly AI助手推出了"技能"功能,每项技能由多个操作步骤组成。以"社交媒体素材"技能为例,用户只需触发该技能,助手便会自动将图片裁剪或扩展至适配不同平台的尺寸、优化文件大小并归档输出结果,大幅简化多平台内容发布的繁琐流程。
Q3:Adobe Firefly AI助手与Canva、Figma相比有什么优势?
A:Adobe认为Firefly AI助手的核心优势在于对旗下现有成熟工具的统一整合能力。相较于Canva、Figma等同样在布局智能体工作流的竞争对手,Adobe拥有Photoshop、Premiere、Lightroom等深度专业工具的完整生态,能够为用户提供更一体化、更专业的跨应用智能创作体验。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。