AI 公司创始人们经常对这项技术改变各个领域(尤其是科学领域)的潜力做出大胆断言。但 Hugging Face 的联合创始人兼首席科学官 Thomas Wolf 却持有一个更为谨慎的观点。
在周四发布在 X 平台上的一篇文章中,Wolf 表示,他担心在没有 AI 研究突破的情况下,AI 正在成为"服务器上的应声虫"。他进一步解释说,目前的 AI 发展模式无法产生具备跳出框架、创造性解决问题能力的 AI —— 这种解决问题的能力才是获得诺贝尔奖的关键。
Wolf 写道:"人们通常犯的最大错误是认为像牛顿或爱因斯坦这样的人只是优秀学生的放大版,认为天才就是把前 10% 的学生线性外推的结果。要在数据中心创造一个爱因斯坦,我们需要的不仅是一个知道所有答案的系统,而是一个能够提出别人从未想到或不敢问的问题的系统。"
Wolf 的观点与 OpenAI CEO Sam Altman 形成鲜明对比,后者在今年早些时候的一篇文章中表示,"超级智能" AI 可以"大幅加速科学发现"。同样,Anthropic CEO Dario Amodei 也预测 AI 可以帮助找到大多数癌症类型的治疗方法。
Wolf 认为当今 AI 的问题 —— 以及他认为这项技术正在走向何方 —— 在于它无法通过连接之前不相关的事实来产生新知识。他说,即使拥有互联网上的大部分信息,按照我们目前对 AI 的理解,它主要是在填补人类已知之间的空白。
一些 AI 专家,包括前谷歌工程师 Francois Chollet,也表达了类似观点,认为虽然 AI 可能能够记忆推理模式,但不太可能基于新情况产生"新的推理"。
Wolf 认为 AI 实验室正在构建的本质上是"非常听话的学生" —— 而不是任何意义上的科学革命者。他说,今天的 AI 并不被激励去质疑和提出可能与其训练数据相悖的想法,这限制了它只能回答已知问题。
Wolf 认为 AI 领域的"评估危机"部分导致了这种令人失望的状况。他指出,目前用来衡量 AI 系统改进的基准测试大多包含那些有明确、显而易见和"封闭式"答案的问题。
作为解决方案,Wolf 建议 AI 行业"转向一种知识和推理的衡量方式",能够阐明 AI 是否能够采取"大胆的反事实方法",基于"微小提示"提出普遍性建议,并提出能导向"新研究路径"的"非显而易见的问题"。
Wolf 承认,找出这种衡量方式的具体形式将是一个难题。但他认为这可能是值得付出努力的。
Wolf 说:"科学最关键的方面是提出正确问题和挑战已学知识的能力。我们不需要一个能用常识回答每个问题的 A+ (AI) 学生。我们需要一个能看到并质疑其他人都忽略的内容的 B 级学生。"
好文章,需要你的鼓励
周一AWS美东数据中心DNS故障导致数百万用户和上千家企业断网,Reddit、Snapchat、银行和游戏平台均受影响。专家认为这凸显了冗余备份的重要性,CIO需要根据业务关键性进行风险评估,优先保护核心系统。单一供应商策略仍可行,但需通过多区域部署分散风险,建立故障转移计划。金融、医疗等高风险行业需更高冗余级别。
上海AI实验室等机构联合提出FrameThinker框架,革命性地改变了AI处理长视频的方式。该系统采用"侦探式"多轮推理,先快速扫描全视频获得概览,再有针对性地深入分析关键片段。通过两阶段训练和认知一致性验证,FrameThinker在多个视频理解基准测试中准确率平均提升10.4%,计算效率提高20倍以上,为AI视频理解领域带来突破性进展。
英国政府发布新的反勒索软件指导文件,旨在解决供应链安全薄弱环节。该指南与新加坡当局联合制定,帮助组织识别供应链问题并采取实际措施检查供应商安全性。英国国家网络安全中心过去一年处理了204起"国家重大"网络安全事件。指南强调选择安全可靠的供应商、加强合同网络安全条款、进行独立审计等措施,以提升供应链韧性和防范网络攻击。
复旦大学团队创建MedQ-Bench基准,首次系统评估AI模型医学影像质量评估能力。研究覆盖五大成像模式,设计感知-推理双层评估体系,意外发现医学专用AI表现不如通用AI。结果显示最佳AI模型准确率仅68.97%,远低于人类专家82.50%,揭示了AI在医学影像质控应用中的现实挑战和改进方向。