这两天,有很多人哐哐给我发一些视频,问我是不是AI做的。
或者就是问,想用AI做成这样,要学啥。
这些视频里面的一些片段,大概是这样的:


我直接看笑了,因为太熟了。
这特娘的是第八届世界渲染大赛的作品啊。
很多人可能不知道这个比赛,但是你如果是个玩3D的人,一定都会知道。
2020年底,pwnisher向广大的艺术家发起挑战(主要是疫情,闲的)。他会给出一个工程模板,然后大家按他的镜头、角色动画、背景去扩展创作自己的故事。
没想到,第一届,就收到了125个艺术家的作品参与。
这哥们就直接把大家的作品剪了一个合集。

结果就,自然而然的爆了。
因为实在是,太TM牛逼了。无论是技术、还是创意。
第二届再举办的时候,主题叫Alternate Realities(交替现实),直接收到了2400多份作品。
从此,世界3D渲染大赛,成了全世界最顶级的3D渲染赛事。
我印象中,第六届的ENDLESS ENGINES(无限引擎)应该是参与人数的巅峰,收到了4280个作品,但是能最终只能选出TOP100,入选率2.3%,也特么挺离谱的。。。
一晃三年,世界3D渲染大赛,已经举办到了第八届,这次的主题是:Eternal Ascent(无尽阶梯)。

而上面的片段,就是第八届的一些作品。
需要注意的是,这些作品并不是最终的TOP100,只是很多玩家在提交后,发出来的自己的作品,然后别人收集了一波剪辑了一下。
正式开奖日期我记得没错的话,应该是3月9号。
所以,回到文章最开始的那两个问题。
这是AI做的吗?
答:不是。
想用AI做成这样,要学啥?
答:就用AI的话,学啥你也做不出来。
世界渲染大赛的作品,倒是跟现在的AI视频有一个共性是:都只有4~5秒钟。
但是世界渲染大赛的作品,用郭帆在《流浪地球2制作手记》中的话说,叫:
无限细节。
几秒中的视频里,有脑洞、有创意、有故事、有细节、有彩蛋,埋了太多太多的点子了。
很多时候你要看个三四遍,才能把细节全部看全。
甚至背景上,很多时候也都是戏。
这需要工具本身有极高的可控性,人还有极高的想象力。
这两者我觉得缺一不可。
而可控性,从来都是AI,最薄弱的一环。人们都只看AI一键直出有多爽,但是忘了在真正的商业化交付中,可控,是至关重要的一环。
AI视频,确实在很多时候可以降低一些创作者的门槛,但是我从不来认为,这个时代就已经被瞬间颠覆了。
技术永远是一道渐变的灰。
按现在AI视频的的模型进化速度,以及可控性的进化速度,想真正冲击到一些顶级作品的时间点,我个人预估还需要2~3年时间。
甚至,需要等AI 3D的成熟。
所以,不要高估了技术的短期影响,但是也不要低估了技术的长期影响。
等待,但拥抱。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。