6月1日,NVIDIA在COMPUTEX上宣布,经过严格测试,包括宁畅产品在内的多种服务器已加入NVIDIA认证系统计划。该系统是运行NVIDIA AI软件的理想选择,这些服务器将支持医疗、制造、零售和金融服务等行业的AI,助力企业降本增效,加速数智化转型进程。
本次成为“NVIDIA-Certified Servers”(NVIDIA认证服务器)的宁畅产品是其最新推出的三款人工智能服务器:X620G40、X640G40以及X660G45,其不仅可满足常规的AI推理、在线推荐系统需求,更可实现搭建GPU高速集群,用于要求更高的工作负载,如对话式人工智能。
NVIDIA消息显示,通过NVIDIA认证表明产品符合 NVIDIA 设计最佳实践。用户可放心选择NVIDIA认证系统并赋能其各规模加速计算。而服务器要取得“NVIDIA 认证”,需运行认证测试套件,该套件充分模拟用户在数据中心所遇到的应用和用例,只有测试产品通过所有测试性能阀值才能获得认证。
宁畅方面透露,经NVIDIA认证的宁畅产品,已通过客户的框架选型测试。
图说:NVIDIA认证系统测试套装涉及领域
宁畅介绍,本次通过“NVIDIA认证”的三款产品X620 G40、X640 G40、X660 G45,均为搭载最新Ampere架构GPU以及Intel第三代至强可扩展处理器的新一代产品。
图说:NVIDIA网站认证服务器页截图
相比上一代人工智能服务器,宁畅G40新一代产品全面升级PCIe 4.0,综合计算性能提升至146%,综合I/O性能翻倍,推理性能提升至172%,可满足互联网用户的AI推理、训练等多元场景需要。
X620 G40 普惠AI方案
宁畅X620 G40推理服务器是业界首台支持满速互联2U推理平台,支持32个DDR4 内存插槽,支持10个PCI-E4.0扩展插槽,可兼容3块NVIDIA® A100/A40/A30双宽或8块A10/T4单宽GPU卡,针对业务需求对资源进行弹性配置,广泛适用于各个行业智能计算的需求。
X640 G40 主流性能 场景丰富
X640 G40是兼备训练与推理功能的全能型GPU服务器,具备海量本地存储的扩展能力,最大可支持24块3.5寸硬盘,高效完成算力数据的存储。X640 G40 GPU服务器最大可支持10块A100/A40/A30双宽或20块A10/T4单宽GPU卡。X640 G40产品可支持多种不同的GPU拓扑结构,针对不同的应用和模型进行GPU互联优化,是高效全能的计算平台。
X660 G45 海量存储 极致算力
X660 G45人工智能服务器是专为深度学习训练开发的高性能计算平台,满配8颗NVIDIA® A100Tensor Core GPU,GPU之间采用高达600GB/s 的NVLink总线高速互联。每个GPU上可搭配专属的200G HDR高速网络和U.2高速缓存,是训练业务场景的最佳选择。
赋能各行业AI场景
COMPUTEX期间,NVIDIA企业计算负责人Manuvir Das表示:“每个行业的企业都渴望采用AI,并需要在传统数据中心基础设施上支持这些先进工作。开放的、不断成长的NVIDIA认证系统生态圈在服务器上为客户提供了前所未有的丰富选择,这些服务器经过NVIDIA验证,具有赋能世界级AI的能力。”
通过NVIDIA认证使得宁畅服务器可获得NVIDIA软件堆栈的企业级支持。
此外,凭借NVIDIA认证系统,宁畅用户能够支持传统数据中心各种复杂工作,包括运行NVIDIA AI Enterprise以扩展混合云中的AI工作负载、使用NVIDIA Omniverse Enterprise实现设计协作和高级模拟。
此外,为满足用户多元智能场景的算力需求,宁畅推出“智定﹢”战略。结合采用模块化设计,可灵活调度算力、存储、网络等资源的服务器产品,并依托“智慧研发”、“质能制造”、“至享服务”等服务与技术体系,宁畅可深入用户场景,让“智能算力”充分发挥。
如今,已有上千家用户采购宁畅产品,落地上百项服务器定制方案。如果您对宁畅服务器产品感兴趣,欢迎拨打购买咨询热线:400-898-1688,智能算力定制专家宁畅期待为您服务。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。