前谷歌重要工程师、现任 Civo 非执行董事(他说"主要是顾问角色")的 Kelsey Hightower 认为,科技行业每隔几年就会重新定义自己。他希望有人能编写一份术语词汇表,因为软件就是软件,不管它被叫做什么。
去年,Hightower 曾向我们表示他计划置身于当前席卷整个行业的生成式 AI 浪潮之外。最近在 Bluesky 上,他再次重申了"完全避开这波 AI 浪潮"的决心:"如果他们愿意花时间和金钱来训练人工智能,为什么我不把同样的精力投入到真实的智能上呢?"
虽然选择避开当前的 AI 浪潮,但这并未阻止这位工程师深入观察技术格局。他抱怨行业总是用新词来描述相同的旧事物,同时呼吁云技术不仅要考虑扩展,还要考虑降维。
Hightower 说得有道理 —— 尽管 AI 代理很流行,但深入了解就会发现它们本质上还是软件。有些只是连接器,有些则只是穿着华丽外衣的工具程序。Hightower 希望有一份明确的术语定义词汇表,去除那些可能对股价有利但对工程师没什么帮助的神秘色彩。
毕竟,代理说到底不过是处理数据的软件。
"给我们一份词汇表吧,"他在与 The Register 交谈时笑着说,"这样我们才能真正理解我们在评估什么!"在 Hightower 看来,生成式 AI 和大语言模型都是需要解码和理解的黑盒子。
"当越来越多在 OpenAI 和 Nvidia 等公司工作的人离职后开始讲述他们在内部的工作经历时,我们就能逐渐理解真相。DeepSeek 事件就是一个让人清醒的时刻。"
Hightower 承认一些 AI 供应商(尤其是 OpenAI)会强烈抗议:"他们偷了我们的东西!"但他最终认为这个事件只是一个检查点:"所以我们都在深入了解这个黑盒子,随着时间推移,黑盒子就会变成软件栈中的另一个组件,然后我们就会继续前进..."
"担忧在于,"他说,"如果人们看到黑盒子里面并发现里面并没有什么魔法...那这个行业会怎么样?"
按照 Hightower 的说法,有些人可能会惊慌地说"我们需要这种兴奋来维持股市!"确实,现在有不少公司的估值都建立在 AI 的承诺之上,尽管其中大多数与其说是终结者,不如说更像是自动补全功能。
Hightower 对 AI 的看法似乎与 Civo 的立场不同。Civo 上周在美国推出了其 Flexcore 设备和主权 Relax.ai 服务。在主题演讲和公司的美国 Navigate 活动中,CEO Mark Boost 表示 AI 工具有潜力让工程师直接描述需求而不是编写代码。
Hightower 以他一贯的风格告诉 The Register:"你们都可以随心所欲。如果你只想做一个画框图的架构师,那就这样吧。我不会参与其中。我会选择继续理解框里面是什么。"
可惜的是,并非每个工程师都能像他这样自由地拒绝完全投入到 AI 炒作中的管理层的要求。
数据回归本地
在美国 Navigate 活动上,Civo 在北美市场推出了 FlexCore 设备(一个包含公司软件栈的 2U 机箱),同时有报告显示,面对不断上升的成本,企业正在认真考虑将云工作负载迁回本地。
根据 Civo 委托的研究显示,82% 的高级 IT 主管计划在未来 12 个月内转移更多工作负载,更多组织预计会增加私有云支出。
Civo 的 CTO Dinesh Majrekar 告诉 The Register,成本在决策中变得越来越重要。"你要和那些过去签署一张可以用三到五年的硬件支票的 CFO 们对话,而现在他们在公共云上每月的支出就相当于那个数额。很多关于数据回归的讨论都源于此。"
抛开 AI 不谈,Hightower 正在利用他在 Civo 的顾问职位为公司的 FlexCore 设备方案提供建议。其中一个建议促成了主题演讲中的演示:使用该设备建立私有云,并可以在与公司其他服务相同的界面上进行管理。
FlexCore 设备上周在北美市场推出,包含了 Civo 的完整软件栈。Civo 正在自己的数据中心部署这款设备,这意味着客户可以拥有与 Civo 自己的云使用的相同硬件的私有设备。
私有区域概念引起了 Hightower 的兴趣,因为它填补了云巨头未能服务的市场空白。"如果你是地图上的一个小国家,而且没有主要云提供商将你列入即将开放的区域名单中,那你就出局了;你甚至不在收入预测中。没人在乎。"
Hightower 正在展望未来。他不仅期待 FlexCore 设备可以在任何地方连接以满足特定的企业或监管需求,或加速区域扩展,还期待设备所有者/运营商甚至可能向外提供其设备上的闲置容量。
"那将是一个令人惊叹的可能性。"
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。