抖音母公司字节跳动推出了 OmniHuman-1,这是一个能够从单张照片生成逼真人物视频的 AI 系统。该系统可以让照片中的人物说话、做手势、唱歌、演奏乐器等。
根据周日发布在开放获取档案网站 arXiv 上的一篇研究论文显示:"OmniHuman 的表现显著超越现有方法,能够基于微弱的输入信号(尤其是音频)生成极其逼真的人物视频。无论是人像、半身还是全身图像,该系统都支持任何宽高比的图像输入,能在各种场景下呈现更加生动和高质量的效果。"
在 OmniHuman-1 项目页面上,研究人员分享了展示该工具功能的样例视频。这些示例展示了从多个角度拍摄的手部和身体动作、动画角色、动物,以及被赋予生命的历史人物。
在一段清晰的黑白视频中,爱因斯坦站在黑板前发表演讲,用手势和细微的面部表情强调他的话语:"没有情感的艺术会是什么样子?它将是空洞的。没有情感的生活会是什么样子?它将失去价值。"这仿佛让我们穿越时空,观看这位著名理论物理学家在大学讲课,但画面看起来却像是今天拍摄的。
南加州大学安纳伯格传播与新闻学院临床副教授 Freddy Tran Nager 在观看样例视频后接受采访时表示:"这些视频非常令人印象深刻。如果你想让汉弗莱·鲍嘉重现银幕,我不确定效果如何。但在小屏幕上,特别是在手机上,这些效果令人惊叹。"
该工具使字节跳动(及抖音)正式加入了创造最佳、最逼真的 AI 生成人物视频的激烈竞争。这些数字人物正在各处涌现 - 作为推广产品的虚拟网红、帮助公民使用社会服务的政府官员,以及可以娱乐和与粉丝互动的虚拟名人 - 或令人担忧的是,出现在虚假的政治背书中。
Tran 认为像 OmniHuman 这样的系统可以在教育环境中被师生使用:"我希望玛丽莲·梦露能教我统计学。"由于 OmniHuman 与抖音的关联,他也可以设想疲惫的内容创作者最终会转向虚拟版本的自己来获得喘息的机会。
他说:"或者抖音可能会说:'你知道吗?现在我们可以自己创作视频了。谁还需要真人呢?'"
纽约大学斯坦哈特文化、教育和人类发展学院的兼职教授 Samantha G. Wolfe 也看到了像 OmniHuman 这样的工具的前景和潜在危险。
她在采访中表示:"仅从一张照片创建内容,并使其看起来真的在说话和移动,从技术角度来看是令人着迷的,但也可能带来许多潜在的负面影响。假冒的商业领袖或政治领袖说出不准确的话,可能对企业或国家产生巨大影响。"
Wolfe 说,随着 AI 生成视频变得越来越复杂,风险也随之增加。"当它开始看起来越来越像现实,越来越像真人在做这些事情时,人们相信它的可能性就会变得更大。"
字节跳动团队使用超过 18,700 小时的人类视频数据训练 OmniHuman,结合了文本、音频和身体姿势等多种输入类型。不过,字节跳动没有立即回应请求提供更多关于训练数据的具体细节。
OmniHuman 并不是第一个从单张照片生成视频的 AI 工具,但在 Nager 看来,其独特之处在于开发团队可以访问的庞大训练数据量。他说:"如果你创建了一个抖音视频,很可能你现在已经进入了一个将被用来创建虚拟人类的数据库。"
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。