字节全新发布豆包AI视频模型 - 再见了Sora,你的时代过去了。
字节正式发布了他们全新的两款AI视频模型:豆包视频生成-PixelDance模型和Seaweed模型。
虽然发布会结束了,但是我觉得,一个颠覆行业的全新的起点,在这一刻,正式到来了。
豆包视频生成-PixelDance模型和Seaweed模型。
Seaweed模型下次我再详细来说。这次,我想说这个豆包PixelDance模型,因为太屌了,屌炸了,我真的是全程惊叹着看完的。
他们正式宣布这玩意的那一刻,现场掌声雷动,我隔着屏幕都感觉快特么把房顶掀翻了。
真的,如果要给这个豆包PixelDance模型,做一个总结,那就是三个词:
人物的复杂连续动作,多镜头组合视频,极致的运镜控制。
听着感觉有点难理解是不是?不用急,我一会详细来解释。
我先放几个case,给大家感受一下这玩意的震撼:
真的,影视行业在之前,几乎没法用AI,就是因为,人物表演太垃圾,还有场景和人物一致性太差,运镜说实话也不咋地。
行业颠覆的奇点,就在今天,就在这个发布会上,正式到来了。
对,4天前,我就受字节邀请,提前测过了这个豆包PixelDance模型,当时给我震惊的无以复加,你知道,作为一个博主,测完了这么屌的东西,自然就是想第一时间分享出去,但是因为保密协议,我只能只字不提。
人物的复杂连续动作,多镜头组合视频,极致的运镜控制。
过往,AI视频有一个很致命的点,就是看起来像PPT动画。
不管是Sora展示出来的视频、还是runway、还是可灵等等,运动幅度再大,也只是镜头幅度大,从来没有人的复杂动作。
顶天了,转个身,或者快速跑个步,或者挥个手,或者拥抱一下。说实话,就单拥抱这个,都没几个AI视频能做出来的。
而如果让图里这个女生,摘下墨镜,站起身,然后走向雕像呢?
除了手上的表有一些些闪动,人物比例、动作、肢体、光影等等,几乎毫无瑕疵。
比如在《喜剧之王》里,在最后一幕,周星驰饰演的尹天仇,在对着柳飘飘喊出那句经典的“我养你啊”的台词之后,柳飘飘坐在离去的出租车里,哭的非常伤心,看了一会手上的钱和表,然后把他们放进包里,拿出尹天仇视为信仰的那本《演员的自我修养》,伤心的抱在胸口。
这段表演,是连续的。连续的东西,才有张力。你才能感受到,那痛彻心扉的情绪。
而现在,用AI,生成可以做连续动作的人物表演,不再是空谈。
再看一个case,男人喝了一口咖啡,然后放下,一个女人从背后走来。
去年8月我做《流浪地球3》预告片的时候,我就幻想过无数种关于AI做人物表演的可能。
一张图+Prompt,就能生成风格、场景、人物一致的多镜头视频,这个能力,我只在Sora的宣传片里面看到过。
其实说实话,这个视频当时看,非常的震撼,但是现在看其实也还好,风格、角色和场景都太简单了,所以一致性很好保持,也没啥复杂的故事和分镜。
但就这样,现在,依然没有任何一个AI视频,能做到单视频多镜头,而且还能保证完美的一致性。
别跟我说LTX studio那种玩意,那个做做故事版还行,做正片?洗洗睡吧,别说场景了,人物保持全景、中景、特写统一都难。而且真的丑的出奇。
但是现在,豆包PixelDance做出来了,而且一致性简直无敌,真的。
Prompt:拿着镰刀的死神朝女人走近。特写女人的脸,她惊恐地尖叫。
Prompt:白色机器人抬起双手拿着一把步枪对着画面左侧不断射击。枪口射出一道绿色的能量光线。镜头变化成画面左侧是一个黑色的机器人,一道绿光从画面右侧快速射入,击中了它的身体,黑色机器人被击倒并爆炸。画面变了,白色机器人望向爆炸,它望向远处的爆炸,转身走出了画面。
一张图和Prompt,就能生成单视频多镜头,屌爆了,真的。
对于影视和广告行业来说,几分钟能瞬间调度后面两三个镜头的分镜,直接出成片。
普通人的使用门槛,也巨幅降低,人人都是导演,人人都可以做故事的时代。
豆包PixelDance模型的运镜,是我见过最离谱,最牛逼的。
现在的AI视频的运镜控制,还基本集中在摄像机+运动笔刷两个功能的组合拳上,但是说实话,上限真的有限,很多大运镜和变焦,根本做不出来。
而豆包PixelDance,效果真的就特娘的离谱。
什么鸟瞰缩放上移旋转这种基操我就不说了,关键是,直接一句话,各种360度围绕主体环绕、前后景变焦、摇摄、目标跟随、升降镜头什么玩意都行。
效果出奇的好,我第一次见到,在AI视频,运镜能这么牛逼,这么炫酷的。
Prompt:女人微笑着低下头,镜头拉远,一个白人男人注视着这个女人。
Prompt:黑白风格,镜头环绕着戴墨镜的女人拍摄,从她侧面移动到正面,最后聚焦于女人的面部特写。
这是一张图,然后一句Prompt干出来的,你敢信?这动作幅度,这稳定性,比特么建模出来的还离谱,我真的服了。
Sora一个巨型期货,从2.16号到如今,迟迟不见任何踪影。
而后,6.6号,可灵默不作声,正式上线,代表了中国Sora的输出。
而今天,9.24号,字节再把AI视频,推向一个全新的高度,是一个在Sora的宣传片里,都看不到的高度。
豆包PixelDance也不需要什么中国版Sora的外号,豆包PixelDance就是豆包PixelDance,他就是现在AI视频的天。
也至此,AI视频不再是玩具,而是真正的,可以进入到影视、广告、动漫工作流中,带来一些全新的想象。
今天这个豆包PixelDance模型,就会优先对企业开启邀测,过几天上线火山方舟,至于啥时候上线即梦向C端用户全员开放,可能还得等一段时间,毕竟太新,他们说还想再优化优化模型能力,稳定了以后,就直接上线即梦,给全员开放了。
真的,也从来没有什么奇迹,一切都是沉淀多年的积累,一切都是如约而至。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标?~谢谢你看我的文章,我们,下次再见。
0赞好文章,需要你的鼓励
推荐文章
人工智能开发商Anthropic为其旗舰聊天机器人Claude推出新的医疗健康功能,用户现在可以与服务共享医疗记录以更好地了解自己的健康状况。Claude可以连接官方医疗记录和苹果健康等健身应用,进行更个性化的健康对话。新功能现已向美国的Claude Pro和Max订阅用户开放。公司强调该工具不用于诊断或治疗建议,而是帮助用户理解复杂医疗报告,为医患沟通做准备,并承诺严格保护用户隐私数据。
上海AI实验室联合团队开发RoboVIP系统,通过视觉身份提示技术解决机器人训练数据稀缺问题。该系统能生成多视角、时间连贯的机器人操作视频,利用夹爪状态信号精确识别交互物体,构建百万级视觉身份数据库。实验显示,RoboVIP显著提升机器人在复杂环境中的操作成功率,为机器人智能化发展提供重要技术突破。
谷歌发布通用商务协议(UCP)开放商务标准,旨在让AI智能体自动化整个购物流程,从产品发现到支付再到售后服务。该协议与Shopify、Target、沃尔玛等零售商合作开发,支持AI智能体协同处理客户购买流程各环节。谷歌还推出品牌商业智能体和直接优惠工具,优化AI搜索中的购物体验。麦肯锡预测智能体商务到2030年将成长为3万亿美元市场。
英伟达研究团队提出GDPO方法,解决AI多目标训练中的"奖励信号坍缩"问题。该方法通过分别评估各技能再综合考量,避免了传统GRPO方法简单相加导致的信息丢失。在工具调用、数学推理、代码编程三大场景测试中,GDPO均显著优于传统方法,准确率提升最高达6.3%,且训练过程更稳定。该技术已开源并支持主流AI框架。