Oxford Semantic Technologies 是一个很好的例子,体现了英国高级研究与发明局 (ARIA) 主席 Matt Clifford 在起草政府 50 点 AI 机遇行动计划时的构想。
2017 年,牛津大学的三位教授 Ian Horrocks、Boris Motik 和 Bernardo Cuenca Grau 成立了 Oxford Semantic Technologies,将一种新颖的数据发现方法推向市场,该方法使用知识表示与推理 (KRR)。
KRR 是人工智能 (AI) 的一个分支,代表着一种逻辑和基于知识的方法。与从海量数据中寻找模式并得出统计结果的机器学习不同,KRR 旨在通过将数据与专家知识相结合,做出合乎逻辑且可解释的决策,从而提高 AI 推理的准确性。
该公司的技术引起了三星电子的关注,并于去年 7 月被三星收购。联合创始人 Horrocks 是上个月 Galaxy Unpacked 活动的演讲嘉宾之一,三星在该活动上发布了其最新旗舰智能手机 Galaxy S25。
在 Galaxy Unpacked 活动后接受 Computer Weekly 播客采访时,Horrocks 将这次经历描述为"非常惊人",他说这是多年研究的顶点。
DeepSeek 效应
Oxford Semantic Technologies 开发的技术的有趣之处在于,它不需要大量的计算资源来运行 AI,正如 Horrocks 解释的:"三星对我们的知识图谱系统如此兴奋的原因之一是它可以在手机上运行。你可以用相对较小的内存占用和相对较小的计算需求来构建它。"
Horrocks 指出,使用设备端 AI 的好处之一是:"你不需要将可能敏感的个人数据移至云端。你可以在自己的设备上完成所有操作,因此你能掌控一切。手机上的 AI 无法使用它看不到的内容,也不会共享你的敏感个人数据。"
AI 不需要庞大且昂贵的高性能计算机群的观点,与业界普遍接受的方法有所不同。事实上,中国的 DeepSeek 直接证明了 AI 可以低成本实现。
这导致金融市场动荡,特别是当服务器制造商和 Nvidia 等公司将其预期增长建立在 AI 服务器需求指数级增长的基础上,而这些服务器由最新和最昂贵的图形处理单元 (GPU) 提供动力。
当被问及 DeepSeek 时,Horrocks 说:"我认为它挑战了生成式 AI (GenAI) 仅仅关乎训练和推理计算能力的传统观点,这一点非常有趣。"
事实上,任何人都可以下载 DeepSeek 的开源版本并在个人电脑上本地运行。但对许多人来说,每百万 Token 仅需 0.14 美元的云端查询价格大大低于竞争对手的大语言模型。
美国已禁止向中国出口 Nvidia 的高端芯片,以遏制中国的 AI 研发。
随着 DeepSeek 的更多细节被揭示,显而易见的是,其 R1 模型使用了"性能较低"的 AI 处理器技术。与可以使用最新 Nvidia 图形处理器 (GPU) 的美国 AI 公司不同,DeepSeek 使用华为 Ascend 910C AI 芯片进行推理。
根据华为的说法,Ascend 910C 在执行基本学习任务时略逊于 Nvidia H100。但他们声称,Ascend 910C 能够提供比其更强大的竞争对手更低的能源成本和更高的运营效率。然而,即使处理性能较低,基准测试显示 DeepSeek 的表现与 OpenAI 不相上下。
设备端 AI
无论对 DeepSeek 采取何种政治手段 - 截至发稿时,越来越多的国家正在对其实施制裁 - 其存在表明大语言模型 (LLM) 可以在相对低配的硬件上运行。它可以从 GitHub 上的开源存储库下载,还有一些小型版本的模型可以在 PC 或 Mac 上完全脱机运行。
但 Horrocks 和 Oxford Semantic Technologies 的团队已经能够让 AI 在更小的设备上运行。Oxford Semantic Technology 的 RDFox 在处理需求方面占用空间很小,正如 Horrocks 解释的:"三星对我们的知识图谱系统如此兴奋的原因之一是 RDFox 实际上可以直接在手机上运行。"
Horrocks 表示,Oxford Semantic Technologies 背后的团队能够解决的挑战之一是如何在小空间内实现他所说的"逻辑推理"。这最终导致了 RDFox 产品的诞生。
"我正在与牛津大学一位杰出的同事 Boris Motik 合作,他的想法是通过将现代计算机架构与一些非常巧妙的新型数据结构和算法相结合来解决这个问题,"他补充道。
根据 Horrocks 的说法,RDFox 与 DeepSeek 共同的主要优势是,潜在的敏感个人数据不需要上传到公共云进行处理。"你可以在自己的设备上完成所有操作,所以你能够掌控一切。你可以控制手机上的 AI 能看到什么,不能看到什么,而且你知道它不会共享你的敏感个人数据,"他补充道。
现在判断设备端 AI 将变得多么重要还为时过早。它已经提供了增强和更丰富的互联网搜索结果,但这仅仅是触及了表面,一旦数百万人拥有随身携带的 AI 设备,可能性将是无限的。Galaxy S25 上的简要功能 - 总结一天的活动 - 是人们可能会发现有用的功能。
"重要的一点是,"Horrocks 补充道,"它可以跨多个设备集成。所以,也许当你去健身房或遛狗时,你戴着可穿戴设备,设备的 AI 可以学习用户的日常习惯。"
正如 Horrocks 指出的,这对三星来说是一个巨大的机遇。
好文章,需要你的鼓励
VisTA是一种新型强化学习框架,使视觉AI能够自主探索、选择和组合多种视觉工具。与传统方法不同,VisTA无需人工监督,通过反复尝试学习哪些工具最有效。研究团队在ChartQA、Geometry3K等测试中证明,VisTA显著优于训练免费基线,特别是在分布外样本上表现更佳。其核心创新在于使用群体相对策略优化算法,让AI代理能够根据实际性能而非预设规则来选择工具,为未来发展更灵活的视觉推理系统铺平了道路。
这项研究引入了DFIR-Metric,首个专门评估大语言模型在数字取证与事件响应领域能力的基准测试集。由阿布扎比技术创新研究院领导的国际团队开发的测试包含三个部分:700道理论多选题、150个CTF风格的实际挑战,以及500个基于NIST标准的磁盘与内存取证案例。研究测试了14种顶尖大语言模型,发现虽然它们在理论知识方面表现良好(最高达92.75%准确率),但在需要多步推理的实际取证任务中仍存显著差距(最佳模型仅能解决28%的任务)。
Meta研究团队发现大语言模型在复杂推理任务中,更短的"思考链"反而能带来更高的准确率。研究人员通过三个顶级语言模型的实验证明,选择最短思考链可以比随机选择提高18.8%准确率,比最长思考链提高34.5%准确率,同时显著减少计算资源消耗。基于此,他们提出了"short-m@k"方法,只从最先完成的m个思考中选择答案,既能提高模型表现又能节省高达40%的计算资源。这一发现颠覆了"思考越多越好"的传统观念,为更高效的AI推理开辟了新路径。