初创公司Runway AI Inc.和DeepSeek今日发布了两个新的基础模型,声称其性能超越了科技行业巨头开发的算法。
Runway的新算法Gen-4.5提供文本转视频功能。而中国初创公司DeepSeek则发布了其同名推理模型的更新版本。DeepSeek表示,DeepSeek V3.2在编程和数学相关任务上比前代产品表现更佳。
成立于2018年的Runway获得了来自英伟达公司、软银集团等投资方超过3亿美元的资金支持,在最近一轮融资中估值达到30亿美元。该公司通过应用程序编程接口和基于云的设计工具提供视频生成模型服务。
Runway表示,Gen-4.5在人工智能分析文本转视频基准测试中创下新纪录,该基准用于比较AI视频生成器的性能。该模型的高分部分归功于优化改进,使其在遵循提示方面比前代产品表现更出色。用户可以要求Gen-4.5自定义视频片段的摄像角度、光照以及其他多种参数。
该公司表示,该模型还能生成更逼真的视频片段。与早期的视频生成器相比,Gen-4.5在渲染物理效果(如运动和碰撞)方面更加擅长。不过,该模型也存在一定局限性:它有时会过早生成某些效果,偶尔无法渲染用户指定的特定物体。
Runway计划在本周末前将Gen 4.5推广到其产品中。据该公司介绍,该模型将提供与前一代Gen 4算法相当的速度和定价。Runway在由英伟达公司Blackwell和Hopper芯片驱动的AI集群上运行为其产品提供动力的Gen 4.5部署,该集群也用于训练该模型。
英伟达首席执行官黄仁勋表示:"我们正在携手推进AI的整个生命周期,从预训练到后训练再到推理。"
今日发布的另一个新前沿模型DeepSeek-V3.2针对调试代码等推理任务进行了优化。它在SWE多语言和Terminal Bench 2.0编程语言测试中超越了GPT-5。不过,它未能达到谷歌公司Gemini模型系列创下的记录。
推理模型使用称为注意力机制的模块来处理文本。注意力机制通过查看周围文本来确定单词的含义,识别最相关的短语并将其纳入计算中。这个过程占大语言模型硬件使用量的很大比例。
据DeepSeek介绍,DeepSeek-V3.2包含了需要更少基础设施的注意力机制新实现。该公司称这种实现为DSA。它通过减少DeepSeek V3.2为确定单词含义而必须审查的文本量来降低硬件使用率。
优先考虑输出质量而非硬件效率的公司可以使用DeepSeek V3.2-Speciale,这是与之同时发布的模型性能优化版本。DeepSeek通过让大语言模型回答国际数学奥林匹克竞赛和国际信息学奥林匹克竞赛的题目来衡量其性能。该模型在两项测试中均获得了金奖级别的分数。
Q&A
Q1:Runway的Gen-4.5模型有什么新功能?
A:Gen-4.5是Runway推出的新一代文本转视频模型,在人工智能分析文本转视频基准测试中创下新纪录。它比前代产品更擅长遵循提示,用户可以自定义视频的摄像角度、光照等多种参数,同时在渲染物理效果如运动和碰撞方面表现更出色,能生成更逼真的视频片段。
Q2:DeepSeek V3.2在哪些方面有所改进?
A:DeepSeek V3.2是针对推理任务优化的模型,特别擅长调试代码等任务。它在SWE多语言和Terminal Bench 2.0编程语言测试中超越了GPT-5,并且包含了名为DSA的新注意力机制实现,通过减少文本审查量来降低硬件使用率,提高了效率。
Q3:这两个模型什么时候能使用?
A:Runway计划在本周末前将Gen 4.5推广到其产品中,定价和速度与前一代Gen 4算法相当。DeepSeek V3.2已经发布,同时还提供了性能优化版本DeepSeek V3.2-Speciale供优先考虑输出质量的公司使用。
好文章,需要你的鼓励
AI改变的远不止一间课堂,而是学生的学习方式、未来的职场场景和社会对工作者能力的要求,整个商业文明中的每一位参与者,都将被推着一起改变。
这项研究开发了CaptionQA系统,通过测试AI生成的图片描述能否支持实际任务来评估其真正价值。研究发现即使最先进的AI模型在图片描述实用性方面也存在显著不足,描述质量比直接看图时下降9%-40%。研究涵盖自然、文档、电商、机器人四个领域,为AI技术的实用性评估提供了新标准。
随着大语言模型的不断涌现,Z世代正成为与AI技术共同成长的新一代商业领袖。他们在数字环境中表现出更强的自信,善于协作而非单纯竞争。斯坦福创新者穆拉冈提出AI发展的三种情景:全面禁止、野蛮生长或人机内容分流共存。Z世代企业家需要掌握平台所有权、利用AI扩大规模、打造独特品类和实现超个性化等四大要素,以道德和有益的方式驾驭AI技术。
以色列理工学院研究团队提出了一种将专家混合模型融入YOLOv9目标检测的创新方法。该方法让多个专门化的YOLOv9-T专家分工协作,通过智能路由器动态选择最适合的专家处理不同类型图像。实验显示,在COCO数据集上平均精度提升超过10%,在VisDrone数据集上提升近30%,证明了"分工合作"比单一模型更有效,为AI视觉系统提供了新思路。