周二,OpenAI宣布发布Sora 2音视频生成模型,这是去年Sora模型的升级版本。与新模型同时推出的还有一款名为Sora的社交应用,用户可以在其中生成自己和朋友的视频,并在类似TikTok的算法推荐信息流中分享。此前Wired曾报道过OpenAI正在开发新社交平台的消息。
虽然我们尚未能够测试这款仅限邀请的应用和Sora 2模型,但OpenAI已经分享了令人印象深刻的示例。特别是,Sora 2在遵循物理定律方面表现更好,使生成的视频更加真实。OpenAI公开的视频片段展示了沙滩排球比赛、滑板技巧、体操动作和跳水等场景。
"此前的视频模型过于理想主义——它们会变形物体和扭曲现实来成功执行文本提示,"OpenAI在博客文章中写道。"例如,如果篮球运动员投篮不中,球可能会自发地传送到篮筐。而在Sora 2中,如果篮球运动员投篮不中,球会从篮板反弹。"
Sora应用配备了名为"客串"的"上传自己"功能,允许用户将自己置入任何Sora生成的场景中。为了在生成的视频中使用自己的肖像,用户需要上传一次性的视频和音频录制来验证身份并捕捉外观。
这项功能还允许用户与朋友分享他们的"客串",让其他用户获得在生成视频中使用其肖像的权限,包括生成多人合拍的视频。
"我们认为围绕这个'客串'功能构建的社交应用是体验Sora 2魔力的最佳方式,"该公司写道。
Sora iOS应用现已可供下载,将首先在美国和加拿大推出,不过OpenAI表示希望快速扩展到其他国家。虽然Sora社交平台目前仅限邀请,但ChatGPT Pro用户应该能够在没有邀请的情况下试用Sora 2 Pro模型。
生成视频后,可以在Sora应用内的信息流中分享,这看起来类似TikTok、Instagram Reels或其他短视频信息流。有趣的是,Meta公司上周刚刚宣布在其Meta AI应用中添加了名为"Vibes"的视频信息流。
为了策划算法推荐,OpenAI将考虑用户的Sora活动、他们的位置(通过IP地址获取)、过往帖子互动以及ChatGPT对话历史,不过这些可以关闭。Sora应用还通过ChatGPT提供家长控制功能,允许家长覆盖无限滚动限制、关闭算法个性化,并管理谁可以直接给孩子发消息。然而,这些功能的有效性取决于家长的技术知识水平。
Sora应用在发布时将免费提供,OpenAI表示这是"让人们可以自由探索其功能"。公司表示,发布时唯一的盈利计划是在高需求时期向用户收费以生成额外视频。
社交平台的推出将要求OpenAI采取重要的用户安全措施,该公司在ChatGPT中也面临着同样的问题。虽然用户可以随时撤销对其肖像的访问权限,但这种访问很容易被滥用。即使用户信任某个熟人使用其AI肖像的权限,该人仍可能生成欺骗性内容来伤害该用户。非自愿视频是AI生成视频的持续问题,造成重大伤害,但很少有法律明确规定平台责任。
Q&A
Q1:Sora 2相比之前的视频生成模型有什么改进?
A:Sora 2在遵循物理定律方面表现更好,使生成的视频更加真实。以前的模型过于理想主义,会变形物体来执行文本提示,比如篮球投篮不中时球会自发传送到篮筐,而Sora 2中球会真实地从篮板反弹。
Q2:Sora应用的"客串"功能是什么?
A:"客串"功能允许用户将自己置入任何Sora生成的场景中。用户需要上传一次性的视频和音频录制来验证身份,之后就可以在生成的视频中使用自己的肖像,还可以与朋友分享这个权限。
Q3:普通用户如何使用Sora应用?需要付费吗?
A:Sora iOS应用现已可供下载,首先在美国和加拿大推出。应用在发布时免费提供,唯一的收费计划是在高需求时期向用户收取生成额外视频的费用。社交平台目前仅限邀请,但ChatGPT Pro用户可以直接试用Sora 2 Pro模型。
好文章,需要你的鼓励
PDF协会在欧洲会议上宣布,将在PDF规范中添加对JPEG XL图像格式的支持。尽管Chromium团队此前将该格式标记为过时,但此次纳入可能为JXL带来主流应用机会。PDF协会CTO表示,选择JPEG XL作为支持HDR内容的首选解决方案。该格式具备广色域、超高分辨率和多通道支持等优势,但目前仍缺乏广泛的浏览器支持。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
Ironclad OS项目正在开发一个新的类Unix操作系统内核,面向小型嵌入式系统,计划支持实时功能。该项目的独特之处在于采用Ada编程语言及其可形式化验证的SPARK子集进行开发,而非常见的C、C++或Rust语言。项目还包含运行在Ironclad内核上的完整操作系统Gloire,使用GNU工具构建以提供传统Unix兼容性。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。