Patreon首席执行官Jack Conte在本周奥斯汀SXSW大会上明确表示,他并非反对AI技术。作为一家科技公司的创始人,他无法完全反对技术进步。然而,这位创作者平台的创始人对AI公司的某些做法持有明确的底线立场。
Conte强烈反对AI公司在未经补偿的情况下使用创作者作品来训练模型,他认为这些公司声称的"合理使用"论调完全站不住脚。在SXSW的演讲中,Conte将AI定位为创作者在互联网时代经历的又一次颠覆性变革,类似于从iTunes购买音乐到流媒体的转变,或视频格式向TikTok偏爱的垂直格式转换。尽管AI可能会打破创作者多年来辛苦建立的商业模式,但他相信创作者们最终会蓬勃发展。
作为一名艺术家,Conte学到了重要的一课:变化并不意味着死亡。创作者可以重新站起来,继续前行。正是基于解决音乐人面酬问题的初衷,他创建了Patreon平台。
在谈到AI公司的行为时,Conte直接从演讲稿中读道:"AI公司声称合理使用,但这个论点是虚假的。虽然他们声称将创作者的作品用作训练数据是合理的,但同时却与迪士尼、康泰纳仕、Vox和华纳音乐等权利持有者和出版商达成数百万美元的交易。"
Conte指出,如果AI公司关于合理使用的论点在法律上是成立的,那么他们就不会向这些大型权利持有者付费。"如果使用这些内容是合法的,为什么还要付费?为什么要向他们付费,而不向创作者付费——不向数百万插画师、音乐家和作家付费——这些人的作品被这些模型消费,为这些公司创造了数千亿美元的价值?"
显然,Conte希望为Patreon自己的创作者社区也能获得一些类似的报酬。他正在利用Patreon作为拥有数十万人的创作者社区的规模来支持这一论点。
Conte澄清说,他之所以公开批评AI公司的行为,并不是因为他反对AI、反对科技,甚至反对变化。"我接受变化的不可避免性,并在发现穿越混乱的下一条道路中感到能动性。这种挑战的一部分甚至让我兴奋,"Conte说道。"尽管如此,AI公司应该为我们的工作向创作者付费,不是因为技术不好——而是因为其中很多是好的,或者很快就会变好——这将是未来。当我们为人类的未来做规划时,我们也应该为社会的艺术家做规划,不仅是为了他们,也是为了我们所有人。重视和激励创造力的社会会因此变得更好。"
演讲以充满希望的基调结束,Conte表达了他的信念:无论AI在这方面取得什么进展,人类都将在很长时间内创造和享受其他人类的作品。"伟大的艺术家不会重复已经存在的东西,"Conte说,这里提到了大语言模型预测适当输出的能力。"他们站在巨人的肩膀上,推动文化向前发展。"
Q&A
Q1:Patreon CEO为什么批评AI公司的合理使用论调?
A:Patreon CEO Jack Conte认为AI公司声称的"合理使用"论调是虚假的,因为这些公司一方面声称免费使用创作者作品训练模型是合理的,另一方面却与迪士尼、康泰纳仕等大型权利持有者达成数百万美元的付费协议,这种双重标准说明他们的合理使用论调站不住脚。
Q2:Jack Conte对AI技术持什么态度?
A:Conte并不反对AI技术本身。作为科技公司创始人,他接受技术变化的不可避免性,甚至对挑战感到兴奋。他认为AI技术很多是好的,将成为未来趋势,但强调在规划人类未来时,也应该考虑到创作者的权益和价值。
Q3:Patreon CEO如何看待创作者面对AI变革的未来?
A:Conte以乐观态度看待创作者的未来。他相信变化不意味着死亡,创作者可以重新站起来继续前行。他认为无论AI如何发展,人类都会长期创造和享受其他人类的作品,因为伟大的艺术家会站在巨人肩膀上推动文化向前发展。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。