有时候,业内人士会发表一些见解,将人们对 AI 发展方向的诸多想法进行提炼总结。
在 AI Daily Brief 最新一期中,Nathaniel Whittemore 分析了 Sam Altman 的一篇名为"三个观察"的新博文。
在开始分析之前,Whittemore 先讨论了超级碗广告,比如 ChatGPT 的广告,以及由 Woody Harrelson 和 Matthew McConaughey 主演的 Salesforce "特工部队"广告。随后他开始解析 Altman 的新文章。
在这篇文章中,Altman 一开始就详细阐述了三个主要观察。第一个是模型的智能程度大致等于用于训练和运行它的资源的对数。这为公司从这类项目获得的投资回报提供了一个粗略的概念,也让我们对规模化有了一些见解。
Altman 的第二个观察是,特定智能水平的成本每年下降 10 倍。其他人也认识到这一点,并看到这些巨大的进步如何推动着指数级的发展曲线。Altman 还补充说,较低的价格会导致使用量大幅增加,这体现了杰文悖论 (我们大多数人现在才开始听说这个概念:简而言之,杰文认为当获得新能力时,人们最终会利用资源效率来做更多事情,而不是保持价值)。
第三个观察是"智能的社会经济价值是超指数级的"。
"世界不会一下子就改变;它从来都不会这样," Altman 写道。"从短期来看,生活将基本保持不变,2025 年的人们大多会像 2024 年一样度过他们的时间。我们仍然会坠入爱河,组建家庭,在网上争吵,在大自然中徒步等。但未来将以一种无法忽视的方式向我们袭来,对我们社会和经济的长期改变将是巨大的。我们会发现新的事物去做,新的方式来互帮互助,以及新的竞争方式,但它们可能与今天的工作大不相同。"
Altman 如此赞扬晶体管这一增强大语言模型能力的先驱:
"从某些方面来说,AI 在经济上可能会像晶体管一样——一个能够良好扩展并渗透到经济几乎每个角落的重大科学发现。我们不会过多考虑晶体管或晶体管公司,收益被广泛分配。但我们确实期望我们的计算机、电视、汽车、玩具等能够创造奇迹。"
他警告说:
"未来将以一种无法忽视的方式向我们袭来。"
Whittemore 对这些观察的见解
在这个转折点上,Whittemore 分享了他自己的五个观察。
第一个与规模化有关:
"这里有一个明确的切入点,关于我们过去几个月一直在进行的规模化辩论……现在有趣的是,他现在把推理也纳入了这些扩展定律中。因此,与其将测试时间计算作为一个根本不同的东西,它只是'更多资源等于更好输出'这个相同方程的不同版本。"
Whittemore 的第二个观察呼应了 Altman 的观点:
"智能成本下降的速度确实令人难以置信,"他说。
作为第三个观察,Whittemore 指出我们可能都需要成为管理者,需要这些技能来处理可能被委派各种任务的 AI 代理。
Whittemore 概述的下一点是一个相对性论点。
"从某种意义上说,AGI 只是人类进步脚手架中的另一个工具,"Whittemore 说。"但你能感觉到这才是他真正的意思:这一次,情况确实不同。"
Whittemore 的最后一点是目前还没有实际的政策。他引用了在这个行业有着令人印象深刻资历的 MIT 教授 Ethan Mollick 的话。
"正如 (Mollick) 指出的那样,对于未来世界的样子没有清晰的愿景,"他说,"而且实验室把决定如何使用他们创造的东西的负担推给了政策制定者。"
当然,随着各方利益相关者齐聚一堂为未来铺路,我们需要解决这类问题。你可以自己看看 Altman 的文章,也许会想用 Whittemore 的笔记作为指南。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。