AI 公司创始人们经常对这项技术改变各个领域(尤其是科学领域)的潜力做出大胆断言。但 Hugging Face 的联合创始人兼首席科学官 Thomas Wolf 却持有一个更为谨慎的观点。
在周四发布在 X 平台上的一篇文章中,Wolf 表示,他担心在没有 AI 研究突破的情况下,AI 正在成为"服务器上的应声虫"。他进一步解释说,目前的 AI 发展模式无法产生具备跳出框架、创造性解决问题能力的 AI —— 这种解决问题的能力才是获得诺贝尔奖的关键。
Wolf 写道:"人们通常犯的最大错误是认为像牛顿或爱因斯坦这样的人只是优秀学生的放大版,认为天才就是把前 10% 的学生线性外推的结果。要在数据中心创造一个爱因斯坦,我们需要的不仅是一个知道所有答案的系统,而是一个能够提出别人从未想到或不敢问的问题的系统。"
Wolf 的观点与 OpenAI CEO Sam Altman 形成鲜明对比,后者在今年早些时候的一篇文章中表示,"超级智能" AI 可以"大幅加速科学发现"。同样,Anthropic CEO Dario Amodei 也预测 AI 可以帮助找到大多数癌症类型的治疗方法。
Wolf 认为当今 AI 的问题 —— 以及他认为这项技术正在走向何方 —— 在于它无法通过连接之前不相关的事实来产生新知识。他说,即使拥有互联网上的大部分信息,按照我们目前对 AI 的理解,它主要是在填补人类已知之间的空白。
一些 AI 专家,包括前谷歌工程师 Francois Chollet,也表达了类似观点,认为虽然 AI 可能能够记忆推理模式,但不太可能基于新情况产生"新的推理"。
Wolf 认为 AI 实验室正在构建的本质上是"非常听话的学生" —— 而不是任何意义上的科学革命者。他说,今天的 AI 并不被激励去质疑和提出可能与其训练数据相悖的想法,这限制了它只能回答已知问题。
Wolf 认为 AI 领域的"评估危机"部分导致了这种令人失望的状况。他指出,目前用来衡量 AI 系统改进的基准测试大多包含那些有明确、显而易见和"封闭式"答案的问题。
作为解决方案,Wolf 建议 AI 行业"转向一种知识和推理的衡量方式",能够阐明 AI 是否能够采取"大胆的反事实方法",基于"微小提示"提出普遍性建议,并提出能导向"新研究路径"的"非显而易见的问题"。
Wolf 承认,找出这种衡量方式的具体形式将是一个难题。但他认为这可能是值得付出努力的。
Wolf 说:"科学最关键的方面是提出正确问题和挑战已学知识的能力。我们不需要一个能用常识回答每个问题的 A+ (AI) 学生。我们需要一个能看到并质疑其他人都忽略的内容的 B 级学生。"
好文章,需要你的鼓励
在2025年KubeCon/CloudNativeCon北美大会上,云原生开发社区正努力超越AI炒作,理性应对人工智能带来的风险与机遇。随着开发者和运营人员广泛使用AI工具构建AI驱动的应用功能,平台工程迎来复兴。CNCF推出Kubernetes AI认证合规程序,为AI工作负载在Kubernetes上的部署设定开放标准。会议展示了网络基础设施层优化、AI辅助开发安全性提升以及AI SRE改善可观测性工作流等创新成果。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
DeepL作为欧洲AI领域的代表企业,正将业务拓展至翻译之外,推出面向企业的AI代理DeepL Agent。CEO库蒂洛夫斯基认为,虽然在日常翻译场景面临更多竞争,但在关键业务级别的企业翻译需求中,DeepL凭借高精度、质量控制和合规性仍具优势。他对欧盟AI法案表示担忧,认为过度监管可能阻碍创新,使欧洲在全球AI竞争中落后。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。