量子计算的美妙之处在于它有望推动突破性发现,这将从根本上改变我们作为一个国家乃至全球所能实现的成就。
它有机会彻底革新神经科学和肿瘤学等高度复杂且重要的领域,加速那些曾经需要数百年才能完成、甚至完全无法解决的研究过程。
英国量子计算格局
这项工作的大部分正在英格兰牛津郡进行,这里是英国国家量子计算中心 (NQCC) 的所在地,作为英国的国家级量子计算实验室,致力于加速该领域能力和基础设施的发展。
许多英国量子公司,从初创企业到全球企业,都会以某种形式与该中心合作。其中包括全球领先的量子信息公司 Infleqtion,它是首个在 NQCC 安装尖端中性原子量子计算机的公司,以及 Oxford Ionics,该公司赢得了 600 万英镑的合同,为中心提供其打破世界纪录的电子量子位控制的离子阱量子计算机。
该地区正迅速成为英国量子发展故事的重要组成部分,每年增长 7.8%,为英国经济贡献约 17 亿英镑。
其发展势头引人注目。前政府将其认定为五大关键技术之一,在 2024 年投资 4500 万英镑,作为到 2033 年建成量子驱动经济的承诺的一部分。维持这种支持力度并确保资金持续可用对当前政府来说至关重要。
量子技术企业中心 (QTEC) 自 2016 年成立以来取得的影响是该领域在适当支持下蓬勃发展的绝佳范例。该中心由工程和物理科学研究委员会资助,作为量子系统工程的技能和培训中心,已支持创建至少 28 家活跃的量子公司。根据 2019 年的报告,三分之一的英国获得资助的量子初创公司源自这里。事实上,QTEC 校友公司现已筹集超过 6300 万英镑的股权、合同和赠款资金,为英国量子劳动力创造了超过 220 个新的高技能就业岗位。
密切合作的需求
但是,如果英国要帮助更多初创企业成长为成熟的、有影响力的企业,我们必须确保它们能在有利于其发展的地点获得场地。
牛津大学 Begbroke 科学园等研究机构、NQCC 等中心以及其他前瞻性生命科学和技术公司之间的紧密联系至关重要,因为这促进了跨行业合作,推动更大的创新。
例如在肿瘤学领域,Infleqtion 预计将能够使用量子计算技术,通过量子比特(量子信息的基本单位)的量子态高效表示分子,从而获得更准确和高效的分子行为模拟。他们还期望通过改进核磁共振成像和 CT 扫描等技术产生的底层量子数据的处理和解释方式来增强医学成像。
就场地本身而言,不言而喻,化学实验室和量子计算实验室会有很大的不同。使用者的需求各不相同,但以依赖超导量子比特的量子计算机为例,需要将温度保持在尽可能接近绝对零度,因为热量可能导致错误,这通常只能通过低温制冷来实现。
未来全球定位
同样不可否认的是,量子计算公司天生就需要大量电力,英国电力网络需要投资,以避免开发商/使用者不得不等待(在某些情况下长达六年)才能获得所需的电力水平。
英国量子领域的潜力在很大程度上仍未被认知,但随着 PsiQuantum 等大型科技公司从硅谷迁移到英国,以获取英国的低温技术专长以及牛津郡的制造和供应链,这一领域必将继续发展。
如果牛津和更广泛的英国能够提升其作为量子领域领导者的声誉,我们将看到一些非常令人鼓舞的科学、技术和创新突破,这些突破有潜力加速经济增长。
在正确的位置提供正确的空间将是实现这一目标的关键。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。