量子硬件可能是 AI 的最佳搭档

人工智能能耗问题引发关注,量子计算或成解决方案。量子硬件在某些方面更适合AI底层数学运算,但目前错误率仍偏高。研究人员正着手准备,以便在硬件就绪时运行AI模型。本文探讨了量子AI的潜力,包括量子电路在机器学习中的应用、将经典图像数据输入量子处理器的方法,以及在真实量子硬件上运行AI算法的初步尝试。

关于 AI 能源消耗的担忧促使许多人在寻找降低其功耗的方法。大多数方案都集中在现有技术的硬件和软件延伸上。但也有一些技术走得更远,量子计算就是其中之一。

在某些方面,量子硬件比传统硬件更适合支撑 AI 的底层数学运算。虽然目前的量子硬件对于复杂的 AI 模型来说错误率还是太高,但研究人员已经开始为未来硬件成熟时运行 AI 模型做准备。本周,一些商业机构发布了一份论文草案,描述了如何将经典图像数据输入量子处理器 (实际上是两种不同的处理器) 并执行基础的 AI 图像分类。

这给了我们一个绝佳的机会来讨论为什么量子 AI 不仅仅是炒作。

机器学习走向量子化

正如 AI 领域包含多种机器学习技术一样,利用量子计算执行 AI 算法某些环节也有多种方式。有些仅仅是数学问题;例如某些形式的机器学习需要大量矩阵运算,这在量子硬件上可以高效完成。(这里有一篇很好的综述,介绍了量子硬件可能如何助力机器学习。)

量子硬件在某些方面确实能很好地匹配 AI 需求。在传统计算硬件上运行 AI 的一大挑战是处理器和内存是分离的。运行神经网络时需要反复访问内存,以查找人工神经元的信号该发送到哪里以及每个信号应该赋予什么权重。这造成了主要瓶颈。

量子计算机没有这种分离。虽然它们可以包含一些量子内存,但数据通常直接存储在量子比特中,而计算则涉及直接对量子比特本身执行操作 (称为门操作)。事实上,已经有研究表明,对于监督学习来说,即系统可以通过预先分类的数据进行训练来学习对项目进行分类,即使处理的数据存储在经典硬件上,量子系统也可以超越经典系统。

这种形式的机器学习依赖于所谓的变分量子电路。这是一种两量子比特门操作,它需要一个额外的因子,该因子可以保存在硬件的经典部分,并通过触发门操作的控制信号传递给量子比特。你可以将其类比为神经网络中的通信,其中两量子比特门操作相当于两个人工神经元之间的信息传递,而因子则类似于信号的权重。

这正是本田研究所的团队与量子软件公司 Blue Qubit 合作研究的系统。

从像素到量子比特

这项新研究主要集中在如何将经典世界的数据输入量子系统进行分类。研究人员最终在两种不同的量子处理器上测试了结果。

他们测试的问题是图像分类。原始数据来自本田场景数据集,这些数据来自在北加州约 80 小时的驾驶记录;图像都标注了场景中的内容信息。研究人员希望机器学习处理一个简单的问题:场景中是否在下雪?

所有图像当然都存储在经典硬件上。要在量子硬件上分类图像,就必须将其转换为量子信息进行处理。团队尝试了三种数据编码方法,这些方法在图像像素的切片方式和将结果片段发送到多少量子比特方面有所不同。研究人员使用量子处理器的经典模拟器进行训练步骤,以确定在两量子比特门操作期间使用的适当数值——这类似于神经网络中的权重。

然后他们在两种不同的量子处理器上运行硬件。一个来自 IBM,有很多量子比特 (156 个),但门操作期间的错误率略高。第二个来自 Quantinuum,以门操作期间的极低错误率著称,但只有 56 个量子比特。总的来说,随着研究人员使用更多量子比特或运行更多门操作,分类的准确率就会提高。

总体而言,系统运行良好;准确率远高于随机猜测的预期水平。同时,它们通常低于在普通硬件上运行标准算法的结果。我们仍未达到现有硬件既有足够的量子比特又有足够低的错误率以与经典硬件竞争的程度。不过,这项工作清楚地表明,现实世界的量子硬件能够运行人们期望的那种 AI 算法。但与其他人一样,希望解决实际问题的人们将不得不等待硬件方面的进一步改进。

来源:Arstechnica

0赞

好文章,需要你的鼓励

2025

04/13

20:07

分享

点赞

邮件订阅