在北京时间12月4日举办的英特尔研究院开放日活动上,英特尔推出第二代低温控制芯片Horse Ridge II,这标志着英特尔在突破量子计算可扩展性方面取得又一个里程碑。可扩展性是量子计算的最大难点之一。在2019年推出的第一代Horse Ridge控制器的创新基础上,Horse Ridge II支持增强的功能和更高集成度,以实现对量子系统的有效控制。新功能包括操纵和读取量子位状态的能力,以及多个量子位纠缠所需的多个量子门的控制能力。
英特尔研究院组件研究事业部量子硬件总监Jim Clarke表示:“凭借Horse Ridge II,英特尔继续在量子低温控制领域引领创新,发挥集成电路设计、研究院和技术开发团队跨学科的深厚专业积淀。我们认为,仅仅增加量子位的数量而不解决由此产生的布线复杂性,这就好比拥有一辆跑车,但总是堵在车流中。Horse Ridge II进一步简化了量子电路的控制,我们期待这一进展能够提高保真度,降低功率输出,让我们朝着‘无堵车’的集成量子电路发展再向前迈进一步。”
目前早期的量子系统使用室温电子设备,这些设备由很多同轴线缆连接到稀释制冷机中的量子位芯片。考虑到制冷机的外形规格、成本、功耗和热负荷,这种方法无法扩展用于大量量子位。借助最初版本的Horse Ridge,英特尔迈出了应对上述挑战的第一步,从根本上简化了各项需求:不再需要对设备使用多个机架,也不再需要让成千根电线进出制冷机来运行量子计算设备。相反,英特尔用高度集成的片上系统(SoC)代替了这些笨重的仪器,从而简化了系统设计,并使用复杂的信号处理技术来加快设置时间,改善量子位性能,并让工程团队能够有效地将量子系统扩展到更大的量子位数。
Horse Ridge II的设计基于第一代SoC产生射频脉冲以操纵量子位状态的能力,也称为量子位驱动(Qubit Drive)。它引入了两个额外的控制功能,从而可以将外部电子控件进一步集成到在低温制冷机内部运行的SoC中。
新功能包括:
量子位读出(Qubit readout):该功能允许读取当前量子位状态。该读取意义重大,因为它允许进行片上低延迟量子位状态检测,而无需存储大量数据,从而节省了内存和功耗。
多门控脉冲(Multigate Pulsing):能够同时控制多个量子门,这对于有效的量子位读取以及多个量子位的纠缠和操作至关重要,并为打造更具扩展性的系统奠定了基础。
通过增加在集成电路内运行的可编程微控制器,让Horse Ridge II能够就三种控制功能的执行方式上拥有更高级别的灵活性和复杂的控制。该微控制器使用数字信号处理技术对脉冲进行额外滤波,有助于减少量子位之间的串扰。
Horse Ridge II使用英特尔®22纳米低功耗FinFET技术(22FFL),其功能已在4开尔文温度下得到验证。如今,一台量子计算机的工作环境为毫开尔文范围,仅比绝对零度高几分之一。但是硅自旋量子位(英特尔量子工作的基础)具有可在1开尔文或更高温度下运行的特性,这将大大降低量子系统制冷的难度。
英特尔的低温控制研究重点,是致力于让控件和硅自旋量子位达到相同的工作温度水平。正如Horse Ridge II所展示的那样,这一领域的不断进步,代表了当今大力扩展量子互连所取得的进步,也是英特尔实现量子实用性长期愿景的关键要素。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。