AI可能导致大规模失业的迹象已经显现:自2023年以来,美国入门级职位招聘下降了35%,科技巨头掀起大规模裁员潮,就连AI领域的领导者也在警告即将到来的冲击。
在华盛顿特区举行的Axios AI峰会后台,参议员马克·华纳表示,一位风险投资家最近告诉他,由于Anthropic的Claude取得的进展,他正在将软件投资减记至零。一家大型律师事务所告诉他,由于AI现在可以处理很多曾经分配给初级律师的工作,他们不再招聘一年级助理律师。
华纳表示,对AI相关失业的恐惧是"显而易见的",尽管一家AI公司的数据显示AI尚未开始抢夺工作岗位。随着这些恐惧的增长,它们正在蔓延到另一个争论中,即谁应该承担费用。
华纳有一个提议:对推动AI繁荣的数据中心征税,并用这笔收入帮助工人度过转型期。他还没有提出立法,但随着公众对AI和数据中心愤怒情绪的增长,这个想法变得越来越紧迫。
在美国各地,对数据中心出现了反对声音,包括参议员伯尼·桑德斯和众议员亚历山德里娅·奥卡西奥-科尔特斯周三提出的一项要求暂停建设数据中心的法案。最强烈的担忧是关于噪音、污染和不断上涨的电力成本。但在这些担忧之下还有一种潜在的怨恨情绪,即抗拒承受在自己后院建设数据中心可能带来的不良影响,而这些数据中心为一些人担心会取代工人的技术提供动力。
华纳不打算支持同事们的法案。在活动现场,他说:"数据中心暂停令只意味着中国会行动得更快,而这是我们不能输的领域。"
他补充说,当涉及到AI和数据中心时,无法将精灵塞回瓶子里。虽然华纳相信严格的要求,确保数据中心不会将其水费和电费转嫁给居民,但他告诉TechCrunch,他认为还有另一种方式让社区提取他们的"一磅肉",以解决潜在的失业担忧。
"我一直认为行业有义务帮助解决这个问题并为此买单,但我一直在问的问题之一是,谁应该付费?"华纳告诉TechCrunch。"应该是芯片制造商,黄仁勋吗?应该是大语言模型公司吗?应该是像高盛这样使用这些工具来减少一年级助理数量的公司吗?"
最终,他说,他认为"提取一磅肉最容易的地方可能是数据中心。"
这可能看起来像是将数据中心的税收收入用于培训新护士或资助AI技能提升项目,只要在社区应对AI公司强加给他们的经济转型时,能够为社区带来"切实的好处"。
华纳将其视为在建设数据中心的需求与对承担其成本的社区的义务之间取得平衡的一种方式。
这个想法并非没有先例。华纳指出了弗吉尼亚州亨利科县,该县利用当地数据中心的税收收入启动了一个新的经济适用房项目。
他说,找到一种将数据中心与社区切实利益联系起来的方式至关重要,因为否则,"干草叉就要出现了。"
公众情绪表明他可能发现了什么。根据最近的NBC新闻民调,AI的公众支持率低于移民和海关执法局,46%的注册选民对AI持负面看法,只有26%的人持正面看法。在弗吉尼亚州,这体现在一项取消该州数据中心建设税收减免的提案上,该减免在世界上最大的数据中心市场之一每年让州和地方政府损失近20亿美元的税收。华纳表示其他州可能会效仿。
他说,AI和数据中心"很容易被妖魔化"。
Q&A
Q1:参议员华纳提出了什么解决AI失业问题的方案?
A:华纳提议对推动AI繁荣的数据中心征税,并用这笔税收收入帮助工人度过转型期,比如用于培训新护士或资助AI技能提升项目,为社区在应对AI带来的经济转型时提供切实好处。
Q2:AI对就业市场造成了什么影响?
A:自2023年以来,美国入门级职位招聘下降了35%,科技巨头掀起大规模裁员潮。一些律师事务所不再招聘一年级助理律师,因为AI可以处理很多曾经分配给初级律师的工作。
Q3:公众对AI的态度如何?
A:根据NBC新闻民调,AI的公众支持率较低,46%的注册选民对AI持负面看法,只有26%的人持正面看法,甚至低于移民和海关执法局的支持率。
好文章,需要你的鼓励
这期是技术加情怀了。极少数人基于热情和对卓越的执念,构建了数十亿人每天依赖但普通人从不知晓的基础设施。
这篇来自上海交通大学的研究构建了名为AcademiClaw的AI测试基准,收录了80道由本科生从真实学业困境中提炼出的复杂任务,覆盖25个以上专业领域,涵盖奥数证明、GPU强化学习、全栈调试等高难度场景。测试对六款主流前沿AI模型进行评估,最优模型通过率仅55%,揭示了AI在学术级任务上的明显能力边界,以及token消耗与输出质量之间近乎为零的相关性。
Antigravity A1无人机推出"大春季更新",新增AI智能剪辑、语音助手、延时摄影模式及升级版全向避障系统。用户可通过语音命令控制Sky Genie、深度追踪等核心功能,虚拟驾驶舱支持第三人称视角飞行。随着产品进入墨西哥市场,Antigravity全球覆盖已近60个国家,持续推动无人机向更智能、更易用方向发展。
Meta AI安全团队于2026年5月发布了代码世界模型(CWM)的预发布安全评估报告(arXiv:2605.00932v1)。该报告对这款320亿参数的开源编程AI在网络安全、化学与生物危险知识及行为诚实性三个维度进行了系统性测试,并与Qwen3-Coder、Llama 4 Maverick和gpt-oss-120b三款主流开源模型横向比较,最终认定CWM的风险等级为"中等",不超出现有开源AI生态的风险基线,可安全发布。