英伟达最新的Blackwell GPU包含两款小型工作站显卡,旨在70瓦功耗限制内为专业可视化和本地AI工作负载提供最高性能。
这两款产品于周一在加拿大温哥华的Siggraph大会上发布,分别是RTX Pro 4000小型版(SFF)和RTX Pro 2000,它们采用相同的半高双槽散热器设计。尽管外观相似,但两款显卡性能差异显著,RTX 4000 SFF拥有8960个CUDA核心,是RTX Pro 2000的4352个核心的两倍多。
据英伟达称,RTX 4000 Ada SFF在光线追踪方面比前代产品快1.7倍,AI性能提升2.5倍。凭借280个张量核心,该芯片能够提供770 teraFLOPS的FP4性能。
虽然技术上这确实是浮点运算2.51倍的提升,但大部分性能提升来自FP4格式而非架构改进。当标准化为FP8时,芯片性能仅提升约25%。
虽然这款小型显卡的浮点性能提升有限,但内存带宽这一本地推理的关键指标却有显著改进。配备24GB GDDR7内存,带宽达432GB/s,该显卡在运行OpenAI新发布的gpt-oss-20b等大语言模型时,Token生成速度比英伟达上一代产品快约54%。
英伟达建议RTX Pro 2000主要用于专业可视化工作负载,同时也承诺显著的性能提升。据该GPU巨头表示,与上一代Ada架构相比,用户可期待3D建模性能提升1.6倍,CAD性能提高1.4倍,渲染速度快1.6倍。
在AI性能方面,该显卡远不及更大型或更高功耗的同系列产品,但考虑到其仅70W的热设计功耗,表现仍然不俗。该显卡拥有高达545 teraFLOPS的稀疏FP4计算能力,以及由16GB GDDR7提供的280GB/s内存带宽。
RTX Pro 4000 SFF和2000都将于今年晚些时候通过PNY和TD SYNNEX发售,并将在BOXX、戴尔、惠普和联想的OEM系统中提供。
这两款显卡完善了英伟达在3月GTC大会上发布的Blackwell工作站GPU产品线,当时公司发布了96GB的RTX Pro 6000。
同样在Siggraph大会上,英伟达展示了一款2U服务器平台,可运行两块600W的RTX Pro 6000服务器版显卡。每块GPU拥有高达4 petaFLOPS的稀疏FP4性能。
这些系统现已通过思科、戴尔、慧与、联想和超微等厂商提供。
Q&A
Q1:英伟达RTX Pro 4000 SFF和RTX Pro 2000有什么区别?
A:两款显卡最大区别在于CUDA核心数量,RTX Pro 4000 SFF拥有8960个CUDA核心,是RTX Pro 2000的4352个核心的两倍多。RTX Pro 4000 SFF配备24GB GDDR7内存和432GB/s带宽,而RTX Pro 2000配备16GB GDDR7内存和280GB/s带宽。
Q2:这两款显卡的AI性能表现如何?
A:RTX Pro 4000 SFF能够提供770 teraFLOPS的FP4性能,在运行大语言模型时Token生成速度比上一代产品快约54%。RTX Pro 2000拥有545 teraFLOPS的稀疏FP4计算能力。虽然不及更高功耗的同系列产品,但在70W功耗限制下表现优异。
Q3:这两款显卡什么时候上市,通过哪些渠道购买?
A:RTX Pro 4000 SFF和RTX Pro 2000将于今年晚些时候发售,用户可通过PNY和TD SYNNEX购买,也可在BOXX、戴尔、惠普和联想的OEM系统中获得这些显卡。
好文章,需要你的鼓励
美国网络安全和基础设施安全局指示联邦机构修补影响思科ASA 5500-X系列防火墙设备的两个零日漏洞CVE-2025-20362和CVE-2025-20333。这些漏洞可绕过VPN身份验证并获取root访问权限,已被黑客积极利用。攻击与国家支持的ArcaneDoor黑客活动有关,黑客通过漏洞安装bootkit恶意软件并操控只读存储器实现持久化。思科已发布补丁,CISA要求机构清点易受攻击系统并在今日前完成修补。
康考迪亚大学研究团队通过对比混合量子-经典神经网络与传统模型在三个基准数据集上的表现,发现量子增强模型在准确率、训练速度和资源效率方面均显著优于传统方法。研究显示混合模型的优势随数据集复杂度提升而增强,在CIFAR100上准确率提升9.44%,训练速度提升5-12倍,且参数更少。该成果为实用化量子增强人工智能铺平道路。
TimeWave是一款功能全面的计时器应用,超越了苹果自带时钟应用的功能。它支持创建流式计时器,让用户可以设置连续的任务计时,帮助专注工作。应用采用简洁的黑白设计,融入了Liquid Glass元素。内置冥想、番茄工作法、20-20-20护眼等多种计时模式,支持实时活动显示和Siri快捷指令。免费版提供基础功能,高级版需付费订阅。
沙特KAUST大学团队开发了专门针对阿拉伯语的AI模型家族"Hala",通过创新的"翻译再调优"技术路线,将高质量英语指令数据转化为450万规模的阿拉伯语语料库,训练出350M到9B参数的多个模型。在阿拉伯语专项测试中,Hala在同规模模型中表现最佳,证明了语言专门化策略的有效性,为阿拉伯语AI发展和其他语言的专门化模型提供了可复制的技术方案。