在因生成受版权保护角色内容而引发争议的背景下,OpenAI与迪士尼达成了一项为期三年的授权协议,获得超过200个迪士尼、皮克斯、漫威和星球大战角色的使用权,用于Sora视频生成和ChatGPT图像创作。
迪士尼和OpenAI在周四的新闻稿中公布了这一协议,将其定义为让Sora和ChatGPT Images能够生成包含精选角色的授权视频剪辑和艺术作品的方式。
双方表示,该协议甚至将向Disney+订阅用户推送迪士尼AI创作内容,因为协议正在"让精选的这些粉丝启发的Sora短视频可供流媒体播放"。目前尚不清楚这些视频将如何挑选,迪士尼也未回应相关问题。
对于担心自己肖像被授权用于AI生成而未获得适当补偿的演员们,这里无需担心:迪士尼和OpenAI表示,该协议既不包括肖像权也不包括声音权,因此来自漫威宇宙和星球大战系列的真人角色只会以"标志性的动画或插画版本"出现。
作为协议的一部分,迪士尼还同意向OpenAI投资10亿美元股权,并通过使用其产品"构建新的产品、工具和体验,包括为Disney+服务以及为员工部署ChatGPT",成为"OpenAI的主要客户"。
简而言之,迪士尼正在抢占先机,全力投入采用AI技术。
迪士尼CEO鲍勃·艾格就此协议表示:"人工智能的快速发展标志着我们行业的重要时刻,通过与OpenAI的合作,我们将通过生成式AI深思熟虑且负责任地扩展我们的故事讲述覆盖面,同时尊重和保护创作者及其作品。"艾格还指出"技术创新持续塑造着娱乐业的发展",考虑到AI浪潮似乎势不可挡(除非泡沫破裂),世界最大娱乐公司之一采用这一技术是合理的。
这一举措特别合理,考虑到OpenAI的Sora 2视频生成工具引发的争议,该工具因其能够密切模仿据广泛指控其训练所基于的受版权保护知识产权而受到好莱坞及其他方面的强烈抨击。OpenAI在推出Sora 2后迅速向娱乐业压力屈服,承诺采用像与迪士尼签署的这种授权协议,据报道迪士尼最初要求OpenAI将其知识产权从视频生成机器的复制算法中移除。
在迪士尼与OpenAI合作的同时,它也在向谷歌发出信号:如果AI工具不来自奥特曼的公司,最好不要生成源自迪士尼的内容。
据报道,迪士尼周三向谷歌发送了停止侵权通知书,指控该公司的AI系统侵犯了其知识产权,称其输出违反了版权,并要求谷歌立即停止基于迪士尼拥有材料生成内容。以爱打官司闻名的迪士尼据报道还就涉嫌滥用其知识产权向Character.ai和Meta发送了类似信函。
谷歌未回应相关问题。
Q&A
Q1:迪士尼与OpenAI的授权协议具体包含哪些内容?
A:这是一项为期三年的协议,OpenAI获得超过200个迪士尼、皮克斯、漫威和星球大战角色的使用权,用于Sora视频生成和ChatGPT图像创作。协议不包括真人演员的肖像权和声音权,只能使用角色的动画或插画版本。
Q2:迪士尼为什么选择与OpenAI合作而不是谷歌?
A:迪士尼与OpenAI达成正式授权协议并投资10亿美元,同时向谷歌发送停止侵权通知书,要求其停止基于迪士尼材料生成内容。这表明迪士尼选择通过正式授权合作来控制其知识产权的AI使用。
Q3:这个合作对Disney+用户有什么影响?
A:Disney+订阅用户将能够观看到基于粉丝启发的Sora短视频内容。迪士尼还将使用OpenAI的产品为Disney+构建新的产品、工具和体验,并为员工部署ChatGPT。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。