量子启发式 AI 能否与当今的大语言模型竞争?

随着大型语言模型迅猛演进,量子启发 AI 正在探索通过并行扩散模型和量子退火技术实现更高效率和低能耗,为未来 AI 架构提供革新思路。

随着大语言模型(大语言模型)在生成式 AI 领域的迅速演进和主导地位不断加强,一场更为低调的演变正悄然发生在两个新兴领域的边缘:量子计算和人工智能。越来越多的研究人员和公司正在探索,量子计算的原理是否能够解决当今 AI 基础设施面临的一些局限性,特别是在可扩展性、效率和推理复杂性方面。

其中一个值得注意的发展来自于位于列支敦士登的 Dynex 公司,该公司最近推出了其量子扩散大语言模型(qdLLM),并入围 SXSW 2025 创新奖决赛。该公司声称,其 qdLLM 相较于依赖当前技术基础设施的传统 Transformer 模型系统,能够更快、更高效地生成生成式 AI 输出。

这与其他新兴方法相比如何,又对 AI 的更广阔未来意味着什么?

量子计算对 AI 的意义

量子计算的核心区别于传统计算在于其利用量子比特(qubit),由于量子叠加原理,量子比特可以同时存在于多种状态。这使得量子计算机能够并行评估大量潜在解答,可能在需要大规模优化、模拟或模式识别的任务中提供优势。

在 AI 领域,研究人员已经探讨过如何利用量子属性改善自然语言处理、机器学习优化以及模型训练效率等任务。然而,大部分这些工作仍处于早期阶段。例如,IBM 与 MIT 研究了混合量子-经典模型在特定深度学习任务中缩短训练时间的可能性,而像 Zapata AI 这样的初创公司则在实验量子增强模型,以用于情感分析和预测。

在这种背景下,Dynex 的方法引入了一种全新架构,利用量子启发算法通过去中心化硬件更高效地运行大语言模型。

Dynex 的 qdLLM:基于扩散、并行的方案

与基于 Transformer 的模型使用自回归技术逐个 Token 生成响应不同,Dynex 的 qdLLM 构建在扩散模型基础上,能够并行生成输出 Token。据 Dynex 公司介绍,这种方法在计算上更为高效,并能产生更好的上下文一致性。

Dynex 的联合创始人及 Dynex Moonshots 任务负责人 Daniela Herrmann 解释说:“传统模型如 GPT-4 或 DeepSeek 是顺序运行的,一次生成一个单词,而 qdLLM 是并行工作的。它更像人类大脑,一次处理所有模式。这就是量子的强大之处。”

包括斯坦福大学和 Google DeepMind 在内的多个学术项目,以及主要 AI 技术供应商的相关举措,最近也开始探索基于扩散的 Transformer 模型。

Dynex 进一步通过整合量子退火技术(一种量子优化形式)来改善文本生成过程中的 Token 选择,从而区别于其他方法。该公司声称,这可以提高文本的连贯性,同时降低相较于传统大语言模型的计算开销。

去中心化与仿量子硬件

Dynex 模型的一个独特特点在于,它依靠的是去中心化的 GPU 网络来模拟量子行为,而不需要实际量子硬件的支持。这一设计使得该系统能够扩展到 Dynex 所称的高达一百万个算法量子比特。

Herrmann 解释道:“任何量子算法,例如 qdLLM,都是在一个去中心化的 GPU 网络上计算的,这些 GPU 高效地模拟了量子计算。”

这种模拟在某种程度上与 TensorFlow Quantum(由 Google 和 X 推出的)所做的工作类似,后者也在经典硬件上模拟量子电路以原型化算法。同样,一些科技初创公司和供应商也在开发平台,以在物理硬件就绪前实现大规模的量子逻辑模拟。

除了软件外,Dynex 计划在 2025 年推出其自主研发的类神经形态量子芯片,命名为 Apollo。与需要低温冷却的超导量子芯片不同,Apollo 设计用于室温运行,支持边缘设备的集成。

Herrmann 解释说:“使用类神经形态电路使得 Dynex 能够在大规模上模拟量子计算,高达一百万个算法量子比特。而 Dynex 也将开始生产基于类神经形态范式的实际量子芯片。”

为 AI 效率和环境影响带来量子旋风

Dynex 表示,qdLLM 的模型规模缩小了 90%,速度快了 10 倍,仅使用相当于传统任务所需 GPU 资源的 10%。这些数据非常引人注目,尤其是在 AI 能耗问题日益受到关注的背景下。

Herrmann 说道:“量子算法的高效与并行性降低了能耗,因为它的速度快了 10 倍,而且仅需要 10% 的 GPU 数量。”

尽管独立验证仍然是必要的,但 Dynex 的方法与 Cerebras Systems 的努力呼应,该公司已开发出晶圆级芯片,在每次训练任务中降低能耗。另一个例子是 Graphcore,其智能处理单元(IPU)旨在通过专门的并行架构降低 AI 工作负载的能耗。

Dynex 报告称,qdLLM 在需要较强推理能力的基准测试中,表现优于包括 ChatGPT 和 Grok 在内的一些领先模型。尽管尚未发布公开基准数据,但该公司表示,在向 2025 年市场推出产品的过程中将发布比较研究。在同行评审的基准数据问世之前,Dynex 的性能断言仍属轶事性描述,但颇具吸引力。

Herrmann 指出:“我们定期发布 qdLLM 的基准测试,并证明某些需要强推理的问题,ChatGPT、Grok 或 DeepSeek 都无法给出正确答案。”

更大视野:量子将如何影响 AI?

从长远来看,Dynex 认为量子计算将成为 AI 领域的核心技术。

Herrmann 表示:“我们认为量子将在未来 5 年内主导 AI。”

这一预测虽具有一定的猜测性质,但并非没有先例。McKinsey、BCG 和 Gartner 的分析师均指出,量子计算有望显著改善优化和模拟任务,但对于大多数用途来说,可能要到 2030 年之后才会显现显著优势。一种更为温和的观点认为,量子与 AI 的混合体系将首先在一些小众应用中出现,如药物发现、金融风险建模或网络安全等领域。

目前,Dynex 处于一批不断试验量子增强或量子启发式 AI 方法的参与者之中。至于其去中心化、基于扩散的 qdLLM 是否能超越基准测试的限制仍有待观察,但它的出现预示着对 AI 新基础的探索远未结束。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

04/21

18:27

分享

点赞