字节全新发布豆包AI视频模型 - 再见了Sora,你的时代过去了。
字节正式发布了他们全新的两款AI视频模型:豆包视频生成-PixelDance模型和Seaweed模型。
虽然发布会结束了,但是我觉得,一个颠覆行业的全新的起点,在这一刻,正式到来了。
豆包视频生成-PixelDance模型和Seaweed模型。
Seaweed模型下次我再详细来说。这次,我想说这个豆包PixelDance模型,因为太屌了,屌炸了,我真的是全程惊叹着看完的。
他们正式宣布这玩意的那一刻,现场掌声雷动,我隔着屏幕都感觉快特么把房顶掀翻了。
真的,如果要给这个豆包PixelDance模型,做一个总结,那就是三个词:
人物的复杂连续动作,多镜头组合视频,极致的运镜控制。
听着感觉有点难理解是不是?不用急,我一会详细来解释。
我先放几个case,给大家感受一下这玩意的震撼:
真的,影视行业在之前,几乎没法用AI,就是因为,人物表演太垃圾,还有场景和人物一致性太差,运镜说实话也不咋地。
行业颠覆的奇点,就在今天,就在这个发布会上,正式到来了。
对,4天前,我就受字节邀请,提前测过了这个豆包PixelDance模型,当时给我震惊的无以复加,你知道,作为一个博主,测完了这么屌的东西,自然就是想第一时间分享出去,但是因为保密协议,我只能只字不提。
人物的复杂连续动作,多镜头组合视频,极致的运镜控制。
过往,AI视频有一个很致命的点,就是看起来像PPT动画。
不管是Sora展示出来的视频、还是runway、还是可灵等等,运动幅度再大,也只是镜头幅度大,从来没有人的复杂动作。
顶天了,转个身,或者快速跑个步,或者挥个手,或者拥抱一下。说实话,就单拥抱这个,都没几个AI视频能做出来的。
而如果让图里这个女生,摘下墨镜,站起身,然后走向雕像呢?
除了手上的表有一些些闪动,人物比例、动作、肢体、光影等等,几乎毫无瑕疵。
比如在《喜剧之王》里,在最后一幕,周星驰饰演的尹天仇,在对着柳飘飘喊出那句经典的“我养你啊”的台词之后,柳飘飘坐在离去的出租车里,哭的非常伤心,看了一会手上的钱和表,然后把他们放进包里,拿出尹天仇视为信仰的那本《演员的自我修养》,伤心的抱在胸口。
这段表演,是连续的。连续的东西,才有张力。你才能感受到,那痛彻心扉的情绪。
而现在,用AI,生成可以做连续动作的人物表演,不再是空谈。
再看一个case,男人喝了一口咖啡,然后放下,一个女人从背后走来。
去年8月我做《流浪地球3》预告片的时候,我就幻想过无数种关于AI做人物表演的可能。
一张图+Prompt,就能生成风格、场景、人物一致的多镜头视频,这个能力,我只在Sora的宣传片里面看到过。
其实说实话,这个视频当时看,非常的震撼,但是现在看其实也还好,风格、角色和场景都太简单了,所以一致性很好保持,也没啥复杂的故事和分镜。
但就这样,现在,依然没有任何一个AI视频,能做到单视频多镜头,而且还能保证完美的一致性。
别跟我说LTX studio那种玩意,那个做做故事版还行,做正片?洗洗睡吧,别说场景了,人物保持全景、中景、特写统一都难。而且真的丑的出奇。
但是现在,豆包PixelDance做出来了,而且一致性简直无敌,真的。
Prompt:拿着镰刀的死神朝女人走近。特写女人的脸,她惊恐地尖叫。
Prompt:白色机器人抬起双手拿着一把步枪对着画面左侧不断射击。枪口射出一道绿色的能量光线。镜头变化成画面左侧是一个黑色的机器人,一道绿光从画面右侧快速射入,击中了它的身体,黑色机器人被击倒并爆炸。画面变了,白色机器人望向爆炸,它望向远处的爆炸,转身走出了画面。
一张图和Prompt,就能生成单视频多镜头,屌爆了,真的。
对于影视和广告行业来说,几分钟能瞬间调度后面两三个镜头的分镜,直接出成片。
普通人的使用门槛,也巨幅降低,人人都是导演,人人都可以做故事的时代。
豆包PixelDance模型的运镜,是我见过最离谱,最牛逼的。
现在的AI视频的运镜控制,还基本集中在摄像机+运动笔刷两个功能的组合拳上,但是说实话,上限真的有限,很多大运镜和变焦,根本做不出来。
而豆包PixelDance,效果真的就特娘的离谱。
什么鸟瞰缩放上移旋转这种基操我就不说了,关键是,直接一句话,各种360度围绕主体环绕、前后景变焦、摇摄、目标跟随、升降镜头什么玩意都行。
效果出奇的好,我第一次见到,在AI视频,运镜能这么牛逼,这么炫酷的。
Prompt:女人微笑着低下头,镜头拉远,一个白人男人注视着这个女人。
Prompt:黑白风格,镜头环绕着戴墨镜的女人拍摄,从她侧面移动到正面,最后聚焦于女人的面部特写。
这是一张图,然后一句Prompt干出来的,你敢信?这动作幅度,这稳定性,比特么建模出来的还离谱,我真的服了。
Sora一个巨型期货,从2.16号到如今,迟迟不见任何踪影。
而后,6.6号,可灵默不作声,正式上线,代表了中国Sora的输出。
而今天,9.24号,字节再把AI视频,推向一个全新的高度,是一个在Sora的宣传片里,都看不到的高度。
豆包PixelDance也不需要什么中国版Sora的外号,豆包PixelDance就是豆包PixelDance,他就是现在AI视频的天。
也至此,AI视频不再是玩具,而是真正的,可以进入到影视、广告、动漫工作流中,带来一些全新的想象。
今天这个豆包PixelDance模型,就会优先对企业开启邀测,过几天上线火山方舟,至于啥时候上线即梦向C端用户全员开放,可能还得等一段时间,毕竟太新,他们说还想再优化优化模型能力,稳定了以后,就直接上线即梦,给全员开放了。
真的,也从来没有什么奇迹,一切都是沉淀多年的积累,一切都是如约而至。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标?~谢谢你看我的文章,我们,下次再见。
0赞好文章,需要你的鼓励
推荐文章
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。