随着对AI垃圾内容的担忧日益加剧,YouTube正准备更新其政策,以打击创作者从"虚假"内容中获得收益的能力,包括批量生产的视频和其他类型的重复性内容——这些内容在AI技术的帮助下变得更容易生成。
7月15日,YouTube将更新其合作伙伴计划(YPP)货币化政策,提供更详细的指导原则,明确哪些类型的内容可以为创作者赚钱,哪些不能。
虽然具体的政策条款尚未发布,但YouTube帮助文档页面解释说,创作者一直都被要求上传"原创"和"真实"的内容。此次更新表明,新的条款将帮助创作者更好地理解当今"虚假"内容的样貌。
一些YouTube创作者担心此次更新会限制他们对某些类型视频的货币化能力,如反应视频或包含片段的视频,但YouTube编辑和创作者联络负责人Rene Ritchie在帖子中表示情况并非如此。
在周二发布的视频更新中,Ritchie表示这一变化只是YouTube长期以来YPP政策的"小幅更新",旨在更好地识别批量生产或重复性的内容。
此外,Ritchie补充说,这类内容多年来一直不符合货币化条件,因为观众通常认为这是垃圾内容。
然而,Ritchie没有提及的是,如今制作此类视频变得多么容易。
随着AI技术的兴起,YouTube已经被AI垃圾内容淹没,这个术语指的是使用生成式AI技术制作的低质量媒体或内容。例如,借助文本转视频AI工具,人们很容易找到在照片、视频片段或其他重新利用的内容上覆盖AI语音的内容。一些充满AI音乐的频道拥有数百万订阅者。关于新闻事件(如Diddy案件)的虚假AI生成视频已经获得了数百万观看量。
在另一个例子中,据404 Media今年早些时候报道,YouTube上一个走红的真实犯罪谋杀系列被发现完全由AI生成。甚至YouTube首席执行官Neal Mohan的肖像也被用于网站上的AI生成钓鱼诈骗,尽管该平台已经有允许用户举报深度伪造视频的工具。
虽然YouTube可能会将即将到来的变化淡化为"小幅"更新或澄清,但现实是,允许这类内容增长并让其创作者从中获利最终可能损害YouTube的声誉和价值。因此,该公司希望制定明确的政策,允许其对YPP中的AI垃圾内容创作者实施大规模封禁也就不足为奇了。
好文章,需要你的鼓励
前OpenAI首席技术官Mira Murati创办的AI初创公司Thinking Machines Lab宣布推出"交互模型"技术。不同于现有AI的轮流对话方式,该模型采用"全双工"技术,能在接收输入的同时生成响应,实现类似真实电话通话的自然交互。其模型TML-Interaction-Small响应速度达0.40秒,优于OpenAI和谷歌同类产品。目前仍处于研究预览阶段,计划数月内开放有限测试,年内正式发布。
香港大学与哈尔滨工业大学联合发布的这项研究(arXiv:2605.06196)发现,大语言模型在扮演不同社会层级角色时,内部神经网络存在一条清晰的"粒度轴",从普通个人视角延伸至全球机构视角。这条轴是AI角色空间的主导几何方向,可被测量、被跨模型复现,并通过激活引导技术加以操控,为AI社会模拟的可信度评估和角色视角的主动调控提供了新工具。
澳大利亚各州及联邦能源部长在近期会议上达成共识,要求数据中心通过投资新建可再生能源和储能设施,完全抵消其电力需求。除昆士兰州外,所有州均支持该提议。联邦能源部长克里斯·鲍文表示,数据中心是新增能源需求的最大驱动力之一,应成为电网的助力而非负担。澳大利亚能源市场委员会将于7月前提交具体实施建议。数据显示,到2030年数据中心用电量预计将增至现在的三倍。
华盛顿大学研究团队发现,在AI数学推理训练中,将随机拼凑的拉丁文占位词(Lorem Ipsum)添加到题目前,能帮助AI突破"全部答错、训练停滞"的困境,在多个模型上平均提升推理得分2.8至6.2分。研究揭示了有效扰动的两个关键特征:使用拉丁语词汇避免语义干扰,以及保持较低困惑度确保AI能正确理解题目内容。