关于 AI 能源消耗的担忧促使许多人在寻找降低其功耗的方法。大多数方案都集中在现有技术的硬件和软件延伸上。但也有一些技术走得更远,量子计算就是其中之一。
在某些方面,量子硬件比传统硬件更适合支撑 AI 的底层数学运算。虽然目前的量子硬件对于复杂的 AI 模型来说错误率还是太高,但研究人员已经开始为未来硬件成熟时运行 AI 模型做准备。本周,一些商业机构发布了一份论文草案,描述了如何将经典图像数据输入量子处理器 (实际上是两种不同的处理器) 并执行基础的 AI 图像分类。
这给了我们一个绝佳的机会来讨论为什么量子 AI 不仅仅是炒作。
机器学习走向量子化
正如 AI 领域包含多种机器学习技术一样,利用量子计算执行 AI 算法某些环节也有多种方式。有些仅仅是数学问题;例如某些形式的机器学习需要大量矩阵运算,这在量子硬件上可以高效完成。(这里有一篇很好的综述,介绍了量子硬件可能如何助力机器学习。)
量子硬件在某些方面确实能很好地匹配 AI 需求。在传统计算硬件上运行 AI 的一大挑战是处理器和内存是分离的。运行神经网络时需要反复访问内存,以查找人工神经元的信号该发送到哪里以及每个信号应该赋予什么权重。这造成了主要瓶颈。
量子计算机没有这种分离。虽然它们可以包含一些量子内存,但数据通常直接存储在量子比特中,而计算则涉及直接对量子比特本身执行操作 (称为门操作)。事实上,已经有研究表明,对于监督学习来说,即系统可以通过预先分类的数据进行训练来学习对项目进行分类,即使处理的数据存储在经典硬件上,量子系统也可以超越经典系统。
这种形式的机器学习依赖于所谓的变分量子电路。这是一种两量子比特门操作,它需要一个额外的因子,该因子可以保存在硬件的经典部分,并通过触发门操作的控制信号传递给量子比特。你可以将其类比为神经网络中的通信,其中两量子比特门操作相当于两个人工神经元之间的信息传递,而因子则类似于信号的权重。
这正是本田研究所的团队与量子软件公司 Blue Qubit 合作研究的系统。
从像素到量子比特
这项新研究主要集中在如何将经典世界的数据输入量子系统进行分类。研究人员最终在两种不同的量子处理器上测试了结果。
他们测试的问题是图像分类。原始数据来自本田场景数据集,这些数据来自在北加州约 80 小时的驾驶记录;图像都标注了场景中的内容信息。研究人员希望机器学习处理一个简单的问题:场景中是否在下雪?
所有图像当然都存储在经典硬件上。要在量子硬件上分类图像,就必须将其转换为量子信息进行处理。团队尝试了三种数据编码方法,这些方法在图像像素的切片方式和将结果片段发送到多少量子比特方面有所不同。研究人员使用量子处理器的经典模拟器进行训练步骤,以确定在两量子比特门操作期间使用的适当数值——这类似于神经网络中的权重。
然后他们在两种不同的量子处理器上运行硬件。一个来自 IBM,有很多量子比特 (156 个),但门操作期间的错误率略高。第二个来自 Quantinuum,以门操作期间的极低错误率著称,但只有 56 个量子比特。总的来说,随着研究人员使用更多量子比特或运行更多门操作,分类的准确率就会提高。
总体而言,系统运行良好;准确率远高于随机猜测的预期水平。同时,它们通常低于在普通硬件上运行标准算法的结果。我们仍未达到现有硬件既有足够的量子比特又有足够低的错误率以与经典硬件竞争的程度。不过,这项工作清楚地表明,现实世界的量子硬件能够运行人们期望的那种 AI 算法。但与其他人一样,希望解决实际问题的人们将不得不等待硬件方面的进一步改进。
好文章,需要你的鼓励
Birk Jernstrom在Shopify收购其上一家初创公司后,创立了货币化平台Polar,专注帮助开发者构建单人独角兽企业。该平台为开发者提供支付基础设施服务,处理全球计费和税务问题,让企业从第一天起就能销售在线产品和SaaS订阅服务。Polar获得了Accel领投的1000万美元种子轮融资,自2024年9月推出以来已吸引1.8万名客户。
Anthropic和Open Philanthropy研究人员发现,之前声称AI推理模型存在"准确率崩溃"的研究实际上混淆了推理能力和物理限制。通过重新分析发现,AI模型在遇到输出长度限制时会主动停止,而非推理失败;部分测试题目本身无解却被当作失败案例;改用程序生成方式后,模型在复杂问题上表现出色,揭示了AI评估方法的重要缺陷。
OpenAI首席执行官奥特曼证实,Meta为挖角OpenAI和谷歌DeepMind的顶尖AI研究人员,开出了超过1亿美元的薪酬包。然而,这些挖角努力基本失败。奥特曼表示,员工们认为OpenAI在实现AGI方面机会更大,公司文化更注重创新使命而非高薪。Meta正在组建超级智能团队,但面临OpenAI、Anthropic等竞争对手的激烈竞争。
华为联合多所高校发布TeleMath数据集,这是首个专门评估大型语言模型在通信数学问题求解能力的基准测试。研究团队设计创新的合成数据生成框架,从50个专家问题扩展至500个测试样本,涵盖信号处理、网络优化等七大领域。评估结果显示,专门的推理模型明显优于通用模型,为通信AI应用指明方向。