随着对AI垃圾内容的担忧日益加剧,YouTube正准备更新其政策,以打击创作者从"虚假"内容中获得收益的能力,包括批量生产的视频和其他类型的重复性内容——这些内容在AI技术的帮助下变得更容易生成。
7月15日,YouTube将更新其合作伙伴计划(YPP)货币化政策,提供更详细的指导原则,明确哪些类型的内容可以为创作者赚钱,哪些不能。
虽然具体的政策条款尚未发布,但YouTube帮助文档页面解释说,创作者一直都被要求上传"原创"和"真实"的内容。此次更新表明,新的条款将帮助创作者更好地理解当今"虚假"内容的样貌。
一些YouTube创作者担心此次更新会限制他们对某些类型视频的货币化能力,如反应视频或包含片段的视频,但YouTube编辑和创作者联络负责人Rene Ritchie在帖子中表示情况并非如此。
在周二发布的视频更新中,Ritchie表示这一变化只是YouTube长期以来YPP政策的"小幅更新",旨在更好地识别批量生产或重复性的内容。
此外,Ritchie补充说,这类内容多年来一直不符合货币化条件,因为观众通常认为这是垃圾内容。
然而,Ritchie没有提及的是,如今制作此类视频变得多么容易。
随着AI技术的兴起,YouTube已经被AI垃圾内容淹没,这个术语指的是使用生成式AI技术制作的低质量媒体或内容。例如,借助文本转视频AI工具,人们很容易找到在照片、视频片段或其他重新利用的内容上覆盖AI语音的内容。一些充满AI音乐的频道拥有数百万订阅者。关于新闻事件(如Diddy案件)的虚假AI生成视频已经获得了数百万观看量。
在另一个例子中,据404 Media今年早些时候报道,YouTube上一个走红的真实犯罪谋杀系列被发现完全由AI生成。甚至YouTube首席执行官Neal Mohan的肖像也被用于网站上的AI生成钓鱼诈骗,尽管该平台已经有允许用户举报深度伪造视频的工具。
虽然YouTube可能会将即将到来的变化淡化为"小幅"更新或澄清,但现实是,允许这类内容增长并让其创作者从中获利最终可能损害YouTube的声誉和价值。因此,该公司希望制定明确的政策,允许其对YPP中的AI垃圾内容创作者实施大规模封禁也就不足为奇了。
好文章,需要你的鼓励
随着员工自发使用生成式AI工具,CIO面临影子AI的挑战。报告显示43%的员工在个人设备上使用AI应用处理工作,25%在工作中使用未经批准的AI工具。专家建议通过六项策略管理影子AI:建立明确规则框架、持续监控和清单跟踪、加强数据保护和访问控制、明确风险承受度、营造透明信任文化、实施持续的角色化AI培训。目标是支持负责任的创新而非完全禁止。
哈佛、MIT联合研究揭示人类语言理解的神经机制,发现大脑通过"信息出口"将语言从核心系统传递至专业脑区实现深度理解。研究提出浅层与深层理解的区别,为人工智能发展提供重要启示,表明真正智能需要多系统协作而非单一优化。该发现可能改变我们对语言认知的理解。
英国正式推出DaRe2THINK数字平台,旨在简化NHS全科医生参与临床试验的流程。该平台由伯明翰大学和MHRA临床实践研究数据链开发,能够安全传输GP诊所与NHS试验研究人员之间的健康数据,减少医生的管理负担。平台利用NHS现有健康信息,安全筛查来自450多家诊所的1300万患者记录,并使用移动消息系统保持试验对象参与度,为传统上无法参与的人群开辟了研究机会。
腾讯混元等团队开发出革命性的AI视频生成自我评判系统PAVRM和训练方法PRFL,让AI能在创作过程中实时评估和改进视频质量,无需等到完成才反馈。该技术使视频动态表现提升56%,人体结构准确性提升21.5%,训练效率提升1.4倍,为AI视频生成质量带来质的飞跃。