人工智能在过去两年中一直是科技界的宠儿,吸引了数十亿美元的资金投入。然而,随着 2025 年的到来,一些专家认为这可能是"AI 泡沫"破裂的一年。
这并非专家们首次发出这样的预警。正如我在 Forbes 的一篇文章中提到的,百度 CEO 李彦宏曾表示:"人们会因为技术无法满足最初兴奋时产生的高期望而感到失望",并且"当 AI 热潮褪去时,只有约 1% 的公司能够存活下来。"
不过这一次,预测既有好消息也有坏消息。来自 Oxylabs 的 AI/ML 顾问委员会的专家们 —— 包括 Adi Andrei、Ali Chaudhry 和 Oxylabs CEO Julius Cerniauskas —— 预测 2025 年 AI 热情将减退,审查将加强,但同时 AI 领域也将出现令人兴奋的进展。
AI 收益递减法则
尽管生成式 AI 和大语言模型备受关注,但 Andrei、Chaudhry 和 Cerniauskas 三人警告说,该技术可能无法实现许多人之前期待的规模化成果。伦敦大学学院研究员、ResearchPal 创始人 Chaudhry 认为 AI 正面临收益递减。
他在新闻稿中表示:"扩展法则正显示出其局限性。一些 AI 实验室已经暗示,扩大模型规模和训练数据并不会带来像过去那样的突破。"
Chaudhry 还预测,针对 AI 社会影响的监管将更加严格,特别是对生成式 AI。他说:"2025 年将是 AI 安全的关键一年",并补充说"我们将看到技术和政策层面的努力来降低其风险。"
同时,Cerniauskas 指出,讨论正在转向负责任和可持续的 AI 实践。他说:"支撑 AI 发展的服务器给环境带来压力,人们也越来越关注 AI 运作的透明度。AI 公司必须解决这些挑战才能维持公众信任。"
Technosophics 的联合创始人兼 AI/ML 专家 Andrei 在预测中更为大胆,指出生成式 AI 泡沫即将破裂。Andrei 解释说:"在没有明确投资回报的情况下,注入生成式 AI 的资金推高了不可持续的期望。"
他引用了美国亿万富翁、C3.ai 创始人兼 CEO Tom Siebel 的话来说明硅谷许多 CEO 和专家的观点,Siebel 曾说"市场正在高估 AI"且"绝对存在泡沫"。Andrei 还指出专业人士和公众对生成式 AI 的抵制日益增长,这可能进一步消减炒作。
他总结道:"来自不同行业的普通人,如作家、艺术家、计算机科学家、工程师和哲学家,都在反对生成式 AI 范式方面找到了共同点。这提高了公众对技术带来的不可调和问题的认识,以及这项技术正被亿万富翁及其组织强加给人们的事实。"
更多 AI 监管
尽管 Oxylabs 的预测为 AI 蒙上了阴影,但公司们并未停止采用这项技术。这种加速的 AI 采用是推动更多监管的主要动力,特别是随着对偏见、隐私和虚假信息的担忧持续增长。
Cerniauskas 指出:"AI 发展的速度已经超过了我们充分理解其影响的能力。2025 年将是 AI 安全成为政府和组织关注焦点的一年。"欧盟的 AI 法案作为世界首个全面的 AI 立法,为许多政府制定 AI 监管框架提供了法律基础。
绿色 AI 是另一个日益增长的趋势,它优先考虑节能计算。随着 AI 模型需要大量计算和能源资源,减少其环境足迹现在已成为伦理必需。
AI 领域的好消息
虽然计算能力、投资回报和偏见等挑战仍然存在,但 Chaudhry 表示,多模态模型将在 2025 年成为焦点,特别是能够生成更长、更真实视频的文本转视频模型。他指出:"我们将看到这些模型在遵循物理法则方面取得显著进步,提高其质量和适用性。"
另一个有前途的领域是自动机器学习,根据 Cerniauskas 的说法,它可能让普通人也能使用机器学习和 AI。"通过 AutoML,各行各业的专业人士都可以创建适合其需求的 AI 工具。这有可能加速 AI 的采用并开启新的可能性。"
毫无疑问,AI 系统和应用确实具有实用价值。但 2025 年围绕 AI 的更大讨论可能将由平衡定义 —— 在不过度夸大其承诺的同时,安全地发挥 AI 的最大效用。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。