随着对AI垃圾内容的担忧日益加剧,YouTube正准备更新其政策,以打击创作者从"虚假"内容中获得收益的能力,包括批量生产的视频和其他类型的重复性内容——这些内容在AI技术的帮助下变得更容易生成。
7月15日,YouTube将更新其合作伙伴计划(YPP)货币化政策,提供更详细的指导原则,明确哪些类型的内容可以为创作者赚钱,哪些不能。
虽然具体的政策条款尚未发布,但YouTube帮助文档页面解释说,创作者一直都被要求上传"原创"和"真实"的内容。此次更新表明,新的条款将帮助创作者更好地理解当今"虚假"内容的样貌。
一些YouTube创作者担心此次更新会限制他们对某些类型视频的货币化能力,如反应视频或包含片段的视频,但YouTube编辑和创作者联络负责人Rene Ritchie在帖子中表示情况并非如此。
在周二发布的视频更新中,Ritchie表示这一变化只是YouTube长期以来YPP政策的"小幅更新",旨在更好地识别批量生产或重复性的内容。
此外,Ritchie补充说,这类内容多年来一直不符合货币化条件,因为观众通常认为这是垃圾内容。
然而,Ritchie没有提及的是,如今制作此类视频变得多么容易。
随着AI技术的兴起,YouTube已经被AI垃圾内容淹没,这个术语指的是使用生成式AI技术制作的低质量媒体或内容。例如,借助文本转视频AI工具,人们很容易找到在照片、视频片段或其他重新利用的内容上覆盖AI语音的内容。一些充满AI音乐的频道拥有数百万订阅者。关于新闻事件(如Diddy案件)的虚假AI生成视频已经获得了数百万观看量。
在另一个例子中,据404 Media今年早些时候报道,YouTube上一个走红的真实犯罪谋杀系列被发现完全由AI生成。甚至YouTube首席执行官Neal Mohan的肖像也被用于网站上的AI生成钓鱼诈骗,尽管该平台已经有允许用户举报深度伪造视频的工具。
虽然YouTube可能会将即将到来的变化淡化为"小幅"更新或澄清,但现实是,允许这类内容增长并让其创作者从中获利最终可能损害YouTube的声誉和价值。因此,该公司希望制定明确的政策,允许其对YPP中的AI垃圾内容创作者实施大规模封禁也就不足为奇了。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。