Runway AI 公司今天宣布完成了由 General Atlantic 领投的 3.08 亿美元融资。
参与本轮融资的还包括 Fidelity、Baillie Gifford、软银集团和英伟达等多家投资机构。英伟达此前还参与了 Runway 在 2023 年的 1.41 亿美元融资。据彭博社报道,这家人工智能创业公司目前估值超过 30 亿美元。
Runway 的这轮融资并不令人意外。早在去年 7 月,The Information 就报道 Runway 正在与 General Atlantic 就新一轮融资进行谈判。
这轮投资的消息发布前一天,Runway 刚推出了其最新的视频生成模型 Gen-4。用户只需提供一张参考图片和自然语言指令,该算法就能生成长达 10 秒的视频片段。它同时还具备图像生成功能。
与 Runway 之前的视频生成器相比,Gen-4 在保持视频帧间物体外观一致性方面有了显著提升。即使物体的背景发生变化,它也能保持这种一致性。
Runway 今天表示,新融资将用于支持其 AI 开发工作。公司网站上的一则招聘信息暗示,这项工程开发将重点关注增强其 AI 训练数据集。根据招聘信息,Runway 正在招聘一位机器学习总监,负责"建立并监督数据合作伙伴关系,为我们的 AI 模型获取高质量数据集"。
除了从外部合作伙伴获取训练数据外,该公司可能还计划在内部创建数据集。Runway 目前正在招聘编剧、视觉特效师和动画师。内部创意团队将使公司能够为其 AI 训练项目创建定制视频数据集。
另一则工程经理的招聘信息暗示,Runway 的开发路线图将优先考虑扩散模型和大语言模型。前者类型的神经网络是视频生成任务的首选。它们通过创建包含噪声的视频,然后gradually 将噪声替换为用户要求的视觉内容来生成视频片段。
大语言模型虽然不能生成视频,但大多数大语言模型所基于的 Transformer 架构可用于增强扩散模型。在某些情况下,用 Transformer 模块替换扩散模型的某些组件可以加快训练速度。
今天的融资轮应该能让 Runway 在与提供名为 Sora 的竞争性视频生成器的 OpenAI 的竞争中处于更有利地位。后者可以生成长达 20 秒的视频片段。本周早些时候,OpenAI 因"经历高流量"而暂时禁用了新用户使用 Sora 的视频生成功能。
图片来源:Runway
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。