量子计算机在材料科学、物流优化和金融建模等领域具备巨大的加速潜力,但前提是需要解决可靠性问题。英伟达认为,其AI模型正是解决这一瓶颈的关键所在。
周二,这家GPU巨头发布了一批新的开放权重模型,专门面向量子硬件开发者,旨在帮助他们大幅降低处理器错误率。
英伟达指出,即便是目前最优秀的量子计算系统,每执行约一千次运算就会产生一次错误。而要使量子计算真正具备实用价值,这一错误率必须再降低十亿倍。
Ising Calibration:量子系统的自动调校引擎
首款量子模型代号为Ising Calibration,其功能正如名称所暗示。英伟达表示,这是一个拥有350亿参数的视觉语言模型,基于合作伙伴系统生成的数据进行训练,能够帮助开发者精准调整系统参数,将噪声干扰降至最低。
英伟达称,该模型可以集成到智能体框架中,实现全流程自动化——持续采集系统数据,并动态调整配置,直到错误率降至预设阈值以下。从功能上看,它有点像量子系统专用的"自动修音"工具。
与许多大语言模型不同,Ising Calibration体量相对轻巧,可在RTX Pro 6000 Blackwell显卡或搭载英伟达GB10芯片的DGX Spark等系统上流畅运行。
Ising Decoding:实时检测与纠错的利器
Ising Calibration虽然能降低错误发生的频率,却无法完全消除错误。为此,英伟达推出了Ising Decoding系列模型,提供两种规格版本,经过训练后可实现实时错误检测与纠正。
为了满足低延迟的运行需求,英伟达采用了较为传统的卷积神经网络(CNN)架构。与Ising Calibration相比,这两款模型体积极为精简:Ising-Decoder-SurfaceCode-1参数量仅为91.2万,较大的"高精度"版本也只有179万参数。得益于此,与基于PyMatching等框架的传统方案相比,这些模型的错误捕获速度提升了2.25至2.5倍。
开放资源与生态布局
Ising Calibration 1和Ising Decoder SurfaceCode 1的模型权重已在Hugging Face平台上线;Ising Calibration 1还同步登陆英伟达Build平台,并以推理微服务(NIM)的形式提供。除模型本身外,英伟达还配套推出了训练框架和推理蓝图,帮助开发者生成合成数据、针对各自系统进行微调,并快速落地部署。
此次发布的系列模型,是英伟达近年来持续深耕量子计算领域的最新成果。此前,该公司在这一赛道的投入已涵盖硬件研发、软件库构建,乃至建立配备Blackwell超算集群的专项研究中心。
Q&A
Q1:英伟达发布的Ising Calibration模型是什么?它能解决量子计算中的哪些问题?
A:Ising Calibration是英伟达推出的一款拥有350亿参数的视觉语言模型,专为量子硬件开发者设计。它的核心功能是通过分析量子系统运行数据,自动调整系统参数以降低噪声,从而减少运算错误率。该模型还可集成到智能体框架中,实现全自动校准流程,持续监测并优化系统,直到错误率低于设定阈值,相当于为量子系统提供了一套"自动调校"机制。
Q2:Ising Decoding模型与Ising Calibration模型有什么区别?
A:两者分工不同。Ising Calibration侧重于在运算前降低错误发生的概率,属于"预防"手段;而Ising Decoding系列模型则专注于运算过程中的实时错误检测与纠正,属于"补救"手段。Ising Decoding采用卷积神经网络架构,参数量极小(最小版本仅91.2万参数),运行速度比传统方案快2.25至2.5倍,可在低延迟环境下高效运行。
Q3:英伟达的量子AI模型目前在哪里可以获取?
A:Ising Calibration 1和Ising Decoder SurfaceCode 1的模型权重已在Hugging Face平台公开发布。此外,Ising Calibration 1还可通过英伟达Build平台获取,并提供推理微服务(NIM)形式的部署选项。英伟达同步开放了配套的训练框架和推理蓝图,方便开发者生成合成数据、进行模型微调并落地应用。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。