在北京时间12月4日举办的英特尔研究院开放日活动上,英特尔推出第二代低温控制芯片Horse Ridge II,这标志着英特尔在突破量子计算可扩展性方面取得又一个里程碑。可扩展性是量子计算的最大难点之一。在2019年推出的第一代Horse Ridge控制器的创新基础上,Horse Ridge II支持增强的功能和更高集成度,以实现对量子系统的有效控制。新功能包括操纵和读取量子位状态的能力,以及多个量子位纠缠所需的多个量子门的控制能力。
英特尔研究院组件研究事业部量子硬件总监Jim Clarke表示:“凭借Horse Ridge II,英特尔继续在量子低温控制领域引领创新,发挥集成电路设计、研究院和技术开发团队跨学科的深厚专业积淀。我们认为,仅仅增加量子位的数量而不解决由此产生的布线复杂性,这就好比拥有一辆跑车,但总是堵在车流中。Horse Ridge II进一步简化了量子电路的控制,我们期待这一进展能够提高保真度,降低功率输出,让我们朝着‘无堵车’的集成量子电路发展再向前迈进一步。”
目前早期的量子系统使用室温电子设备,这些设备由很多同轴线缆连接到稀释制冷机中的量子位芯片。考虑到制冷机的外形规格、成本、功耗和热负荷,这种方法无法扩展用于大量量子位。借助最初版本的Horse Ridge,英特尔迈出了应对上述挑战的第一步,从根本上简化了各项需求:不再需要对设备使用多个机架,也不再需要让成千根电线进出制冷机来运行量子计算设备。相反,英特尔用高度集成的片上系统(SoC)代替了这些笨重的仪器,从而简化了系统设计,并使用复杂的信号处理技术来加快设置时间,改善量子位性能,并让工程团队能够有效地将量子系统扩展到更大的量子位数。
Horse Ridge II的设计基于第一代SoC产生射频脉冲以操纵量子位状态的能力,也称为量子位驱动(Qubit Drive)。它引入了两个额外的控制功能,从而可以将外部电子控件进一步集成到在低温制冷机内部运行的SoC中。
新功能包括:
量子位读出(Qubit readout):该功能允许读取当前量子位状态。该读取意义重大,因为它允许进行片上低延迟量子位状态检测,而无需存储大量数据,从而节省了内存和功耗。
多门控脉冲(Multigate Pulsing):能够同时控制多个量子门,这对于有效的量子位读取以及多个量子位的纠缠和操作至关重要,并为打造更具扩展性的系统奠定了基础。
通过增加在集成电路内运行的可编程微控制器,让Horse Ridge II能够就三种控制功能的执行方式上拥有更高级别的灵活性和复杂的控制。该微控制器使用数字信号处理技术对脉冲进行额外滤波,有助于减少量子位之间的串扰。
Horse Ridge II使用英特尔®22纳米低功耗FinFET技术(22FFL),其功能已在4开尔文温度下得到验证。如今,一台量子计算机的工作环境为毫开尔文范围,仅比绝对零度高几分之一。但是硅自旋量子位(英特尔量子工作的基础)具有可在1开尔文或更高温度下运行的特性,这将大大降低量子系统制冷的难度。
英特尔的低温控制研究重点,是致力于让控件和硅自旋量子位达到相同的工作温度水平。正如Horse Ridge II所展示的那样,这一领域的不断进步,代表了当今大力扩展量子互连所取得的进步,也是英特尔实现量子实用性长期愿景的关键要素。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。