使用人工智能生成人物虚拟形象视频的平台 Synthesia Ltd. 在一轮后期融资中筹集了 1.8 亿美元,使公司估值达到 21 亿美元。
这家总部位于伦敦的公司今天表示,这轮 D 轮融资由风险投资公司 NEA 领投,使其估值较 2023 年上一轮融资的 10 亿美元翻了一倍多。现有投资方包括 GV、MMC Ventures 和 Firstmark,以及新投资方 World Innovation Lab、Atlassian Ventures 和 PSP Growth 也参与了本轮融资。
该公司开发的工具让企业用户能够快速生成和分发合成 AI 视频片段,可以创建替代真人的逼真、栩栩如生的人物虚拟形象。它还使用 AI 辅助视频的编辑和制作,无需使用复杂的制作软件。
去年,Synthesia 为其平台增加了多项更新,包括使用网络摄像头或智能手机创建的个性化虚拟形象,可以与用户本人的声音克隆配对。这个虚拟形象不仅外貌和声音都与本人相似,还能用 30 多种不同语言说话,同时具备全身动作功能,能在说话时做出手臂和手势动作。
对于不需要个性化功能的用户,平台提供超过 230 个预制的逼真虚拟形象,可以使用 140 多种语言进行演讲。Synthesia 的视频播放器能够自动以观众所用的语言播放,使视频分享变得更加便捷。该公司还增加了在同一场景中加入多个虚拟形象的功能,可以就任何话题重现对话场景。
"自从我们在 2017 年创立公司以来,我们一直相信 AI 会迅速将通信方式从文字转向视频和音频等高保真格式,"联合创始人兼首席执行官 Victor Riparbelli 表示。"这个愿景现在已经成为现实。"
Riparbelli 表示,公司拥有超过 60,000 名客户,包括世界最大的品牌和数千家小型企业。这笔新投资将用于支持公司的产品人才库发展。目前公司有 400 名员工。
展望未来,Synthesia 表示计划添加新功能,让企业用户能够为客户生成互动视频体验,如可点击热点、嵌入表单和测验等。公司还计划开发下一代 AI 虚拟形象,使其表现力更强,不仅限于简单的手臂和手部动作,还能在说话时运用全身肢体语言,如触摸臀部和交叉双臂等动作。
好文章,需要你的鼓励
浙江大学和吉利汽车研究院联合团队提出的FreeTimeGS是一种创新的动态3D场景重建方法。不同于传统方法,它允许高斯基元在任意时空位置自由出现,并赋予每个基元运动功能,使其能够随时间移动到相邻区域。研究通过4D正则化策略解决了高不透明度基元阻碍优化的问题。在多个数据集测试中,该方法在渲染质量和速度上均大幅超越现有技术,特别是在处理复杂动态场景时,使用单个RTX 4090 GPU能以467 FPS的速度实现1080p实时渲染,为电影制作、游戏和虚拟现实等应用提供了新可能。
这篇研究介绍了"对角线批处理"技术,该技术解决了循环记忆Transformer模型在处理长文本时的并行计算瓶颈。通过重新编排计算顺序,研究团队实现了在不破坏依赖关系的情况下进行并行计算,使LLaMA-1B模型处理长文本的速度提升3.3倍,同时内存使用减少167.1倍。这种纯运行时优化不需要重新训练模型,为实际应用中的长文本处理提供了高效解决方案。
BEVCALIB是一种利用鸟瞰图表示实现激光雷达与相机校准的创新方法,由南加州大学和加州大学河滨分校的研究团队开发。该方法将不同传感器数据转换到共享的BEV空间,并通过几何引导的特征选择实现高精度校准。在KITTI和NuScenes等数据集上,BEVCALIB比现有最佳方法平均提高了47-82%的性能,为自动驾驶和机器人系统提供了可靠的传感器融合基础。
博尔扎诺自由大学研究团队开发的PATS技术通过保留完整运动片段代替随机抽取视频帧,显著提升了AI评估体育技能的能力。该方法在EgoExo4D基准测试中表现出色,攀岩评估准确率提高26.22%,音乐提高2.39%,篮球提高1.13%。PATS能根据不同运动类型自动调整采样策略,为体育训练和人才发展提供了更准确的自动评估技术。