一觉起来,AI视频又双叕要变天了
之前一直困扰各位创作者的“人物一致性问题”,突然迎来了转机。
话不多说,我们先看效果
“一致性”要重点解决的,就是AI生成影视里的IP问题。
“毕竟没有观众想看自己喜欢的电影主角频频换脸吧”
而这一旦被解决,AI创作短剧、电影、绘本、广告等等等等方面的应用都将会有质的飞跃。
比如这里一个广告片的例子
可能上传的商品图片背景、角度都和要做的广告片不相干,但却能生成一些你想要的“高级”效果。
之前想生成同一人物在不同场景的分镜,通常会先用AI绘画的垫图(通常用Midjourney或者sd),或者局部重绘等方法先生成满意的画面,再通过另外的AI视频软件生成动态视频。
操作麻烦不说,保不齐垫图出来不像,还得加一层AI换脸。。。
而现在,只需上传一张参考图就搞定了,何不快哉!
官方的视频合集上面看了,这里我放点自己实测的效果。
先来个索大试试,我用Midjourney生成了个3D版的,有喜欢的朋友可以后台私信多送你几张。
提示词:索隆吃汉堡
“这标志性绿藻头、胸口上的疤痕、佩刀...”
还原的有点到位!
就是这画质堪忧,Vidu啥时候给提升下。
最近正好在看咒术回战,索性再来个五条悟,也不知道后面复活了没,这次专门找了个2D动漫版的看看效果。
提示词:五条悟在看书
这画风,有一说一确实匹配的让我有些喜出望外,不过同样有点小瑕疵,动作连贯性有待进一步加强,另外,旁边这位女士是...
难道直接预测了五条老师的女友?
不过以上对于一致性问题来说都小问题,等待官方下一版本的优化了,你也可以立即在官网免费体验:https://www.vidu.studio/
日本的网友也玩得飞起,果然一上来就是小姐姐
依稀记得半年前AI生成视频另一大Bug“4秒动态PPT效果,运动幅度太小”是咱国产的可灵AI率先开放给大家使用的,这次,是生数科技的Vidu。
而“角色一致性”这一功能,除了同样是我们国内的AI视频生成产品Pixverse有尝试,在Runway和其他软件还暂未看到。
乔老爷子曾经说过:“创新区分领袖和跟随者。”
也许之前,在AI生成视频方面,我们国内的AI厂家普遍都在扮演跟随者的角色。但这一次,不论是可灵AI、Pixverse 的大胆创新,还是Vidu的技术突破,国内的AI技术正在从追赶者转型为引领者,在国际舞台占有重要地位。
不但首发即开放给全球用户体验使用,更是在不断创新,探索AI视频领域的未来走向。
我们曾经在追随,但现在,我们正在引领新的变革。
好了,今天就聊到这里。如果你觉得这篇文章有帮助,记得点赞、收藏、分享给朋友们哦!咱们下次见啦!
附:
Vidu官网:https://www.vidu.studio/
可灵AI官网:https://klingai.kuaishou.com/
Pixverse官网:https://pixverse.ai/
好文章,需要你的鼓励
这项研究揭示了大语言模型在学习推理时对噪声奖励的惊人适应力。研究表明,即使有40%的奖励信号被故意颠倒,Qwen-2.5-7B模型仍能将数学题准确率从5%提升至72%。更惊人的是,仅奖励模型使用关键推理词组(如"首先,我需要..."),而不验证答案正确性,也能达到70%以上的准确率。研究者提出的推理模式奖励(RPR)不仅能让模型在数学任务中表现出色,还能有效校准开放性任务中的噪声奖励模型,提升较小模型的推理能力。这表明大模型在预训练阶段已掌握了推理能力,强化学习主要帮助它探索有效的推理模式。
大模型时代,玛丽·米克尔(Mary Meeker)的名字可能大家不一定熟悉,但是在互联网时代,这位被可被誉为“互联网女皇”的。她是美国风险投资家和前华尔街证券分析师,专注于互联网及新兴技术领域。玛丽·米克尔(Mary Meeker)发了一份340页的《人工智能趋势报告》,粗粗看了一下,并没有非常轰动的观点,但是数据比较全面
Yale大学自然语言处理实验室研发的Table-R1模型突破性地将推理时间缩放技术应用于表格推理任务。研究团队通过两种方法提升模型能力:从DeepSeek-R1模型的推理过程中学习,以及利用可验证奖励进行强化学习。实验表明,即使使用仅有7B参数的模型,Table-R1-Zero也能在13个表格推理基准测试中媲美甚至超越GPT-4.1等大型模型。该研究不仅证明了中小规模模型通过适当训练也能实现出色表现,还为数据分析、科学研究和决策支持系统等实际应用提供了新可能。