AI 公司创始人们经常对这项技术改变各个领域(尤其是科学领域)的潜力做出大胆断言。但 Hugging Face 的联合创始人兼首席科学官 Thomas Wolf 却持有一个更为谨慎的观点。
在周四发布在 X 平台上的一篇文章中,Wolf 表示,他担心在没有 AI 研究突破的情况下,AI 正在成为"服务器上的应声虫"。他进一步解释说,目前的 AI 发展模式无法产生具备跳出框架、创造性解决问题能力的 AI —— 这种解决问题的能力才是获得诺贝尔奖的关键。
Wolf 写道:"人们通常犯的最大错误是认为像牛顿或爱因斯坦这样的人只是优秀学生的放大版,认为天才就是把前 10% 的学生线性外推的结果。要在数据中心创造一个爱因斯坦,我们需要的不仅是一个知道所有答案的系统,而是一个能够提出别人从未想到或不敢问的问题的系统。"
Wolf 的观点与 OpenAI CEO Sam Altman 形成鲜明对比,后者在今年早些时候的一篇文章中表示,"超级智能" AI 可以"大幅加速科学发现"。同样,Anthropic CEO Dario Amodei 也预测 AI 可以帮助找到大多数癌症类型的治疗方法。
Wolf 认为当今 AI 的问题 —— 以及他认为这项技术正在走向何方 —— 在于它无法通过连接之前不相关的事实来产生新知识。他说,即使拥有互联网上的大部分信息,按照我们目前对 AI 的理解,它主要是在填补人类已知之间的空白。
一些 AI 专家,包括前谷歌工程师 Francois Chollet,也表达了类似观点,认为虽然 AI 可能能够记忆推理模式,但不太可能基于新情况产生"新的推理"。
Wolf 认为 AI 实验室正在构建的本质上是"非常听话的学生" —— 而不是任何意义上的科学革命者。他说,今天的 AI 并不被激励去质疑和提出可能与其训练数据相悖的想法,这限制了它只能回答已知问题。
Wolf 认为 AI 领域的"评估危机"部分导致了这种令人失望的状况。他指出,目前用来衡量 AI 系统改进的基准测试大多包含那些有明确、显而易见和"封闭式"答案的问题。
作为解决方案,Wolf 建议 AI 行业"转向一种知识和推理的衡量方式",能够阐明 AI 是否能够采取"大胆的反事实方法",基于"微小提示"提出普遍性建议,并提出能导向"新研究路径"的"非显而易见的问题"。
Wolf 承认,找出这种衡量方式的具体形式将是一个难题。但他认为这可能是值得付出努力的。
Wolf 说:"科学最关键的方面是提出正确问题和挑战已学知识的能力。我们不需要一个能用常识回答每个问题的 A+ (AI) 学生。我们需要一个能看到并质疑其他人都忽略的内容的 B 级学生。"
好文章,需要你的鼓励
微软研究院联合北京大学、清华大学提出"强化预训练"新方法,让AI在预测下一个词前先进行深度思考推理。该技术将传统的模式匹配升级为真正的逻辑推理,显著提升了语言模型的预测准确性和推理能力,为人工智能从"背诵"向"理解"的转变开辟了新路径。
上海交通大学与StepFun联合推出的OneIG-Bench是AI图像生成领域首个全维度评测基准,涵盖语义对齐、文字渲染、知识推理、风格化、多语言等六大维度,包含超过2400个测试案例。该研究对19个顶级AI模型进行了史上最全面的对比评测,发现GPT-4o综合表现最佳,Seedream 3.0在文字渲染方面独领风骚,揭示了当前AI模型的优势与不足,为未来技术发展指明了方向。
伊利诺伊大学研究团队开发了SAFFRON安全防护系统,通过创新的"多路分叉奖励模型"技术,让AI在面对恶意诱导攻击时能够实时进行安全筛选。该系统将AI安全防护的攻击成功率从89.7%降至40.9%,同时保持回复的自然性和多样性,为AI安全领域开辟了全新的"推理时计算"防护路径。
上海人工智能实验室等机构联合发布的最新研究,开发出能够像人类专家一样"阅读"化学分子图像的AI系统GTR-Mol-VLM。该系统采用模仿人类思维的"图遍历视觉思维链"方法,在处理含缩写的复杂分子图像时准确率达84.50%,比现有最佳方法高出约14个百分点,为药物研发和材料科学等领域的数字化转型提供了重要技术支撑。