Adobe 通过发布新的视频生成模型扩展其生成式 AI 能力,这标志着该公司在为专业创作者提供可安全用于商业项目的 AI 工具方面迈出了重要一步。
该公司今天宣布其 Firefly 视频模型进入公开测试阶段,提供 AI 驱动的视频生成工具。Adobe 声称这些工具仅使用授权内容进行训练——这是在日益拥挤的 AI 视频生成市场中的一个关键差异化特征。
"我们是最实用的解决方案,因为我们的模型对知识产权友好,在商业上是安全的," 负责 Adobe AI 计划的 Alexandru Costin 在接受 VentureBeat 采访时表示。"您可以使用我们的模型,不会有侵犯知识产权的风险。比任何人都更重要的是,我们热衷于解决专业视频制作者的需求。"
Adobe 的新定价策略如何使 AI 视频生成更易获取
自 2023 年 3 月首次发布以来,Adobe 报告其 Firefly 系列 AI 模型已在全球生成超过 180 亿个资产。这种快速采用表明专业创意人员对可在商业工作中放心使用的 AI 工具有强烈需求。
新的视频功能将通过 Adobe 重新设计的 Firefly 网络应用程序提供,并集成到 Adobe 的专业视频编辑软件 Premiere Pro 中。该系统可以从文本提示或图像生成 1080P 视频片段,具有摄像机角度控制和氛围效果生成等功能。
"刚从研究实验室过来,他们今天早上向我演示了一些即将推出的令人惊叹的生成功能,包括提高分辨率、制作透明视频叠加层...实时视频制作," Costin 透露,展示了 Adobe 对该技术的发展规划。
Adobe 推出分层定价计划,标准计划起价每月 9.99 美元,包含 2,000 个视频/音频积分——足够生成大约 20 个五秒钟的 1080p 视频。专业版计划售价 29.99 美元,提供 7,000 个积分。
Adobe 主导专业 AI 视频创作的内部战略
与 Adobe 现有创意工具的集成似乎是一个关键的战略优势。Adobe 高级产品营销经理 Kylee Pena 演示了编辑人员如何使用该技术填补视频时间线中的空白或生成下雪等氛围效果,然后使用 Premiere Pro 的专业工具无缝调整结果。
"因为我在 Premiere Pro 中,我还可以使用许多额外的专业级工具,包括我们已经拥有一段时间的 AI 工具,比如颜色匹配," Pena 在演示期间解释道。
随着 OpenAI 的 Sora 等新产品引起广泛关注,AI 视频生成领域的竞争日益激烈。Adobe 押注于其对商业安全性和专业工作流程集成的关注将帮助其在日益拥挤的市场中脱颖而出。
为确保透明度,Adobe 将在所有 AI 生成的视频内容中包含内容凭证,这是一种数字认证。这与该公司在内容真实性倡议中的领导地位相一致,该倡议旨在为数字内容提供验证工具。
包括 Dentsu、Gatorade 和 Stagwell 在内的全球品牌已经在测试该技术的测试版,表明可能有企业采用。Adobe 计划在不久的将来推出针对高容量专业用户的高级计划。
这一发展表明 Adobe 的战略重点是在适应重塑创意产业的 AI 革命的同时,保持其作为专业人士首选创意工具提供商的地位。在最近的圣丹斯电影节上,85% 的项目使用 Adobe Creative Cloud,该公司似乎很好地准备好了弥合传统创意工作流程与新兴 AI 功能之间的差距。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。