微软发布了长达 20 年关于 Majorana 费米子亚原子粒子的研究成果,该公司计划利用这一成果构建一台拥有百万量子比特的量子计算机。
这项研究涉及拓扑量子比特的开发。微软研究人员预计,这种量子比特将提供更稳定的性能,且需要更少的错误校正。一篇关于这些粒子特性的研究论文指出,Majorana 费米子具有一个数学特性:如果费米子和反费米子无法区分,它们可能会共存而不会相互湮灭。
在一段讨论该研究的 YouTube 视频中,微软技术研究员 Matthias Troyer 表示:"Majorana 的理论表明,从数学角度来看,一个粒子可以成为自己的反粒子。这意味着你可以让两个这样的粒子靠近,它们可能会湮灭消失,什么都不剩;或者让两个粒子靠近,仍然保持两个粒子的存在。"
这提供了一种将费米子和反费米子相互湮灭时的"无"状态对应为二进制"0",两者共存时对应为二进制"1"的方法。
微软技术研究员 Krysta Svore 表示,微软已成功设计出名为 Majorana 1 的芯片,能够测量 Majorana 费米子粒子的存在。她说:"Majorana 使我们能够创建一个拓扑量子比特",这种量子比特具有可靠、小巧和可控的特点。
Majorana 粒子的特性使其能够隐藏量子信息,这使信息更加稳定,但也更难测量。微软开发了一种新的测量方法,据称其精确度能够检测出超导线中十亿个电子和十亿零一个电子之间的差异,这用于确定量子计算中量子比特的状态。
据 Svore 介绍,微软采用的方法解决了导致量子比特错误的噪声问题,这种问题会导致量子计算机容易出错。
"现在我们有了这些拓扑量子比特,我们能够构建一个全新的量子架构——拓扑核心,它可以在一个微小的芯片上扩展到一百万个拓扑量子比特,"她说。
Svore 表示,这个芯片中的每个原子都是经过精心放置的。"它是从零开始构建的,"她补充道。"这完全是一种新的物质状态。可以把我们的工作想象成一个逐个原子绘制的过程。"
传统的计算机处理器使用电子进行运算。"我们不使用电子来计算,"Svore 说。"我们使用 Majorana 粒子。"
Majorana 1 是微软的新型量子芯片,它结合了量子比特和周围的控制电路。除了控制逻辑外,微软的量子计算方法还需要一个稀释制冷机,将量子比特保持在比外太空更低的温度。微软还开发了软件堆栈,使应用程序能够利用微软的量子计算能力。
Majorana 1 设备可以握在手掌中,能够完美地装入可轻松部署在 Azure 数据中心内的量子计算机中。微软副总裁 Zulfi Alam 说:"我们构建的系统工作方式是这样的:你有量子加速器,有与之配合并控制它的经典机器,然后有应用程序根据要解决的问题在经典计算和量子计算之间切换。"
一旦计算完成,结果会在经典计算机上重新合成,作为问题的答案呈现出来。
微软的研究人员相信,他们在 Majorana 1 上采用的方法将能够实现扩展,这是此前由于逻辑量子比特扩展容易出错而阻碍量子计算发展的问题。微软的拓扑量子比特架构使用铝纳米线连接成"H"形。每个 H 形结构有四个可控的 Majorana 粒子组合成一个量子比特。这些 H 形结构还可以在芯片上相互连接。
"虽然为了实现这一目标我们必须展示一种新的物质状态,这很复杂,但之后的过程相当简单,"Svore 说。"它可以平铺展开。这种更简单的架构为快速扩展提供了更好的途径。"
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。