Oxford Semantic Technologies 是一个很好的例子,体现了英国高级研究与发明局 (ARIA) 主席 Matt Clifford 在起草政府 50 点 AI 机遇行动计划时的构想。
2017 年,牛津大学的三位教授 Ian Horrocks、Boris Motik 和 Bernardo Cuenca Grau 成立了 Oxford Semantic Technologies,将一种新颖的数据发现方法推向市场,该方法使用知识表示与推理 (KRR)。
KRR 是人工智能 (AI) 的一个分支,代表着一种逻辑和基于知识的方法。与从海量数据中寻找模式并得出统计结果的机器学习不同,KRR 旨在通过将数据与专家知识相结合,做出合乎逻辑且可解释的决策,从而提高 AI 推理的准确性。
该公司的技术引起了三星电子的关注,并于去年 7 月被三星收购。联合创始人 Horrocks 是上个月 Galaxy Unpacked 活动的演讲嘉宾之一,三星在该活动上发布了其最新旗舰智能手机 Galaxy S25。
在 Galaxy Unpacked 活动后接受 Computer Weekly 播客采访时,Horrocks 将这次经历描述为"非常惊人",他说这是多年研究的顶点。
DeepSeek 效应
Oxford Semantic Technologies 开发的技术的有趣之处在于,它不需要大量的计算资源来运行 AI,正如 Horrocks 解释的:"三星对我们的知识图谱系统如此兴奋的原因之一是它可以在手机上运行。你可以用相对较小的内存占用和相对较小的计算需求来构建它。"
Horrocks 指出,使用设备端 AI 的好处之一是:"你不需要将可能敏感的个人数据移至云端。你可以在自己的设备上完成所有操作,因此你能掌控一切。手机上的 AI 无法使用它看不到的内容,也不会共享你的敏感个人数据。"
AI 不需要庞大且昂贵的高性能计算机群的观点,与业界普遍接受的方法有所不同。事实上,中国的 DeepSeek 直接证明了 AI 可以低成本实现。
这导致金融市场动荡,特别是当服务器制造商和 Nvidia 等公司将其预期增长建立在 AI 服务器需求指数级增长的基础上,而这些服务器由最新和最昂贵的图形处理单元 (GPU) 提供动力。
当被问及 DeepSeek 时,Horrocks 说:"我认为它挑战了生成式 AI (GenAI) 仅仅关乎训练和推理计算能力的传统观点,这一点非常有趣。"
事实上,任何人都可以下载 DeepSeek 的开源版本并在个人电脑上本地运行。但对许多人来说,每百万 Token 仅需 0.14 美元的云端查询价格大大低于竞争对手的大语言模型。
美国已禁止向中国出口 Nvidia 的高端芯片,以遏制中国的 AI 研发。
随着 DeepSeek 的更多细节被揭示,显而易见的是,其 R1 模型使用了"性能较低"的 AI 处理器技术。与可以使用最新 Nvidia 图形处理器 (GPU) 的美国 AI 公司不同,DeepSeek 使用华为 Ascend 910C AI 芯片进行推理。
根据华为的说法,Ascend 910C 在执行基本学习任务时略逊于 Nvidia H100。但他们声称,Ascend 910C 能够提供比其更强大的竞争对手更低的能源成本和更高的运营效率。然而,即使处理性能较低,基准测试显示 DeepSeek 的表现与 OpenAI 不相上下。
设备端 AI
无论对 DeepSeek 采取何种政治手段 - 截至发稿时,越来越多的国家正在对其实施制裁 - 其存在表明大语言模型 (LLM) 可以在相对低配的硬件上运行。它可以从 GitHub 上的开源存储库下载,还有一些小型版本的模型可以在 PC 或 Mac 上完全脱机运行。
但 Horrocks 和 Oxford Semantic Technologies 的团队已经能够让 AI 在更小的设备上运行。Oxford Semantic Technology 的 RDFox 在处理需求方面占用空间很小,正如 Horrocks 解释的:"三星对我们的知识图谱系统如此兴奋的原因之一是 RDFox 实际上可以直接在手机上运行。"
Horrocks 表示,Oxford Semantic Technologies 背后的团队能够解决的挑战之一是如何在小空间内实现他所说的"逻辑推理"。这最终导致了 RDFox 产品的诞生。
"我正在与牛津大学一位杰出的同事 Boris Motik 合作,他的想法是通过将现代计算机架构与一些非常巧妙的新型数据结构和算法相结合来解决这个问题,"他补充道。
根据 Horrocks 的说法,RDFox 与 DeepSeek 共同的主要优势是,潜在的敏感个人数据不需要上传到公共云进行处理。"你可以在自己的设备上完成所有操作,所以你能够掌控一切。你可以控制手机上的 AI 能看到什么,不能看到什么,而且你知道它不会共享你的敏感个人数据,"他补充道。
现在判断设备端 AI 将变得多么重要还为时过早。它已经提供了增强和更丰富的互联网搜索结果,但这仅仅是触及了表面,一旦数百万人拥有随身携带的 AI 设备,可能性将是无限的。Galaxy S25 上的简要功能 - 总结一天的活动 - 是人们可能会发现有用的功能。
"重要的一点是,"Horrocks 补充道,"它可以跨多个设备集成。所以,也许当你去健身房或遛狗时,你戴着可穿戴设备,设备的 AI 可以学习用户的日常习惯。"
正如 Horrocks 指出的,这对三星来说是一个巨大的机遇。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。