就在刚刚,智谱宣布全新迭代的AI视频模型“新清影”,正式上线。
10s、4k、60帧,还能自带生成挺匹配的AI音效。
视频模型已经上线智谱清言上,人人可用。音效模型这个月也即将上线。

这个点,其实还好,就是线上模型迭代升级了一版而已。
但是最牛逼的是,他们直接宣布,把这个“新清影”背后的底层模型,也就是CogVideoX v1.5,直接开源了。。。

我觉得他们疯了,真的。
上上周发类似GPT4o那种端到端的语音对话模型也是,直接发布即开源。

真的,智谱给我整不会了。
周二才夸过腾讯混元,开源了他们参数最大的MoE模型混元Large和AI 3D模型Hunyuan3D-1.0。
现在智谱直接接力,直接开源了他们内部效果最好的AI视频模型。
还是那句话,对于每一个愿意开源,让社会、让开源社区,百尺竿头更进一步的公司。我都永远报以最崇高的敬意,和最大的善意。
CogVideoX v1.5我也第一时间去测试了一下。
开源地址在此:https://github.com/thudm/cogvideo
普通用户也可以去智谱清影上玩。
我放一些我自己跑的case吧。



非常坦率的讲,智谱的新清影,跟上一代比,已经进步巨大了。
不管是审美、还是动作幅度、还是物理规律、还是稳定程度。
真的,上一代的人物变形变得我到现在都还记忆犹新。
但是如果你要把他跟业界最好的比,比如你跟豆包PixelDance比分镜比运镜,那肯定还是差了一定距离的。
毕竟这一版的新清影,在版本号上,还是一个折中的阶段,也就是CogVideoX v1.5,而且他们进步速度还是飞快的。
当时8月也是第一个把生视频全面公开让c端来玩的,说实话也勇气可嘉。
而且我问了一下内部人,参数量更大更新更强的模型正在训练,如果等过两个月CogVideoX v2.0阶段,可能又会来一波进化的飞跃。
当然,不管怎么样,智谱敢把新清影发布即开源,就凭这点,我赞智谱一声勇士。
上一次他们开源CogVideoX,直接给开源社区贡献了一波大力。
一群老外直接玩的飞起。
比如微调一个自己的视频模型。

比如微调一个室内设计的专属视频模型。

等等等等。
AI绘图的开源生态已经被玩出花了,但是AI视频的生态,确实还是非常的贫瘠,不管是配套插件,还是微调方式,还是模型数量等等,都还远远处于起步阶段。
希望这一波新清影CogVideoX v1.5的开源,能让AI视频的开源社区和生态,继续沸腾一次。
除了CogVideoX v1.5的开源之外,还有另一个东西我觉得非常值得说,虽然它还没有上线,但是在这次的demo里一窥了真容。
就是智谱的AI音效模型。
智谱可能是我知道的,唯一一个,什么模态都做的,关键,每个模特居然做的都还不错。
我真的,尊称一声模型法王。
给你们数一下。


好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。