Reddit现已封锁互联网档案馆(IA)对热门Reddit帖子的索引,原因是发现一些被限制抓取Reddit数据的AI公司,转而从IA的存档内容中抓取数据。
此前,IA的Wayback Machine可靠地存档Reddit页面、用户资料和评论,这是其互联网存档使命的一部分。但今后,只有Reddit首页的截图会被存档。正如The Verge指出的,这意味着存档只能作为每日热门帖子和新闻标题的快照,而不再提供已删除帖子的备份或各种Reddit子文化的记录窗口。
Reddit尚未确认哪些AI公司从Wayback Machine抓取其数据。公司发言人Tim Rathschmidt只向Ars确认,Reddit已"察觉到AI公司违反平台政策的情况,包括我们的政策,从Wayback Machine抓取数据"。
Rathschmidt建议IA可以采取措施更好地防御对存档Reddit内容的AI抓取。这可能会促使Reddit解除抓取限制,据The Verge报道,这些限制从今天开始在Reddit全面实施。
但Reddit也借此机会解决其他长期存在的隐私问题,称限制是合理的,因为Wayback Machine存档了用户已删除的内容,这很有问题。
"在他们能够保护自己的网站并遵守平台政策(例如,尊重用户隐私,删除已移除的内容)之前,我们正在限制他们对Reddit数据的部分访问,以保护Reddit用户,"Rathschmidt说。
对社交媒体评论的回顾显示,过去一些Reddit用户使用Wayback Machine研究已删除的评论或帖子。这些评论者指出,还有无数其他工具可以找到已删除的帖子或研究用户活动,有些人认为Wayback Machine可能不是最容易导航的平台。
Reddit用户还会在Reddit平台变化引发内容删除时求助于IA等资源。最近一次是在2023年,当Reddit公共API的变化威胁到受欢迎的子版块时,存档介入保存了内容以免丢失。
IA尚未表示是否正在寻找解决方案来解除Reddit的限制,也没有回应Ars关于这一变化如何影响存档作为开放网络资源效用的评论请求,考虑到Reddit的受欢迎程度。
Wayback Machine主管Mark Graham告诉Ars,IA与Reddit有"长期关系",并继续就此事进行"持续讨论"。
Reddit限制AI公司利用Wayback Machine存档似乎出于经济动机,可能希望促成更多有利可图的许可协议,就像Reddit与OpenAI和谷歌达成的协议。OpenAI协议的条款保密,但据报道谷歌协议价值6000万美元。在未来三年中,Reddit预计从此类许可协议中获得超过2亿美元收入。
Q&A
Q1:Reddit为什么要封锁互联网档案馆?
A:Reddit发现一些被限制抓取Reddit数据的AI公司,转而从互联网档案馆的存档内容中抓取数据,违反了平台政策。同时Reddit也担心Wayback Machine存档了用户已删除的内容,存在隐私问题。
Q2:封锁互联网档案馆会对用户产生什么影响?
A:今后只有Reddit首页的截图会被存档,用户无法再通过Wayback Machine查看已删除的帖子、用户资料和评论,也无法研究各种Reddit子文化或特定用户的历史活动。
Q3:Reddit的数据许可协议能带来多少收入?
A:Reddit已与OpenAI和谷歌达成许可协议,其中谷歌协议价值6000万美元。Reddit预计在未来三年中从此类许可协议中获得超过2亿美元收入。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。