关于人工智能何时以及是否会开始取代人类劳动力的问题,已经引发了众多讨论。
尽管目前还无法确切断定人工智能是否正在逐步接手以往由人类完成的工作,世界经济论坛最近的一项调查显示,40% 的雇主计划在人工智能能够实现任务自动化的领域减少员工数量。
SignalFire 的研究人员认为他们可能看到了人工智能对招聘影响的初步迹象。SignalFire 是一家以数据驱动的风险投资公司,通过 LinkedIn 跟踪超过 6 亿名员工和 8000 万家公司的职位变动。
在分析招聘趋势时,SignalFire 注意到科技公司在 2024 年招聘的新近大学毕业生数量比 2023 年有所下降。然而,科技公司,尤其是前 15 大科技企业,则加强了对具有丰富经验的专业人才的招聘。
具体而言,SignalFire 发现,大型科技公司在 2024 年相比 2023 年新毕业生的招聘减少了 25%;与此同时,初创企业对毕业生的招聘较去年下降了 11%。虽然 SignalFire 没有透露具体减少了多少毕业生,但一位发言人表示,减少的人数达数千人。
诚然,新型人工智能工具的采用可能不能完全解释近期毕业生招聘下降的原因,但 SignalFire 的研究负责人 Asher Bantock 表示,有“令人信服的证据”表明人工智能是一个重要的影响因素。
入门级岗位之所以容易被自动化取代,是因为它们通常涉及生成式 AI 能够高效处理的常规、低风险任务。
人工智能在编程、调试、金融研究以及软件安装方面展现出的全新能力,可能意味着公司对此类工作的需求将会减少。人工智能处理某些入门级任务的能力,预示着部分面向新毕业生的岗位很快可能面临淘汰。
AI 金融分析初创公司 Rogo 的创始人 Gabe Stengel 曾在 Lazard 投资银行开启其职业生涯,期间他曾协助大型制药公司收购生物技术初创企业。Stengel 在上周 Newcomer 金融科技峰会上表示:“Rogo 的工具几乎可以完成我在分析那些公司时所做的所有工作,我们能够整理材料、对公司进行尽职调查并审查其财务状况。”
据《纽约时报》去年报道,虽然大多数大型投资银行尚未因人工智能而明确减少分析师的招聘,但像 Goldman Sachs 和 Morgan Stanley 这样的公司高管曾考虑削减高达三分之二的初级员工招聘,并降低他们聘用员工的薪资,因为借助人工智能后相关工作的要求不再那么严格。
尽管人工智能对低技能工作的威胁确实存在,但科技公司对具有丰富经验的专业人才的需求依然在不断上升。根据 SignalFire 的报告,大型科技公司对拥有两到五年工作经验的专业人才招聘增长了 27%,而初创企业在同一资历范围内的招聘则增加了 14%。
对于应届毕业生来说,一个令人沮丧的矛盾出现了:没有经验便难以找到工作,而没有工作又就难以积累经验。虽然这一困境并非新问题,但 SignalFire 的人才合作伙伴 Heather Doshay 表示,人工智能使这一问题更加严重。
针对新毕业生,Doshay 建议道:掌握人工智能工具。“如果你是最擅长使用人工智能工具的人,人工智能就不会抢走你的工作,”她说。
好文章,需要你的鼓励
这项由华盛顿大学和新加坡国立大学研究团队提出的ScaleKV技术,针对视觉自回归模型中的内存瓶颈问题提供了创新解决方案。研究发现不同变压器层具有不同的缓存需求,将它们分为需要大量历史信息的"起草者"和专注于当前细节的"精细器",实现了尺度感知的KV缓存分配。实验表明,该方法能将Infinity-8B模型的内存需求从85GB减少到8.5GB,同时保持生成质量几乎不变,为高分辨率AI图像生成的普及应用铺平了道路。
这项研究提出了一种名为INTUITOR的创新方法,让大语言模型无需外部奖励即可自主学习推理能力。研究者利用模型自身的"自我确定性"作为唯一奖励信号,替代传统需要人工标注或答案验证的方法。实验表明,该方法在数学推理上与使用标准答案的方法相当,并在代码生成等跨领域任务上展现出更好的泛化能力。这为开发能在缺乏外部验证的情况下自我提升的AI系统开辟了新途径,对未来自主学习AI具有深远影响。
新加坡科技设计大学和字节跳动研究团队提出了"语音反向翻译"方法,解决语音识别中的数据稀缺问题。研究表明,仅用几十小时的标注语音数据就能训练TTS模型生成数万小时高质量合成语音,将数据扩充数百倍。他们引入归一化可理解度指标评估合成语音质量,确定了合成数据能有效增强ASR性能的质量阈值。将方法扩展到十种语言,生成了50万小时合成语音,对Whisper-large-v3模型进行预训练,平均降低错误率30%,对低资源语言尤其有效,错误率降低46%。
WINA是一种由微软等机构研究人员开发的训练无关稀疏激活框架,它通过同时考虑隐藏状态大小和权重矩阵的列式l2范数来加速大型语言模型推理。与仅基于隐藏状态选择神经元的现有方法不同,WINA能更精确识别影响模型输出的关键神经元,在理论上提供更紧的误差界限。实验证明,WINA在相同稀疏度下比最先进方法表现更优(提升最多2.94%),同时减少高达65%的计算量,为资源受限环境中部署大型语言模型提供了高效解决方案。