近日,紫光股份旗下新华三集团(以下简称“新华三”)宣布推出基于 NVIDIA AI 数据平台参考设计的技术集成方案,打造更智能、更灵活、更安全的大模型数据处理能力,为AI推理场景注入新能力和强劲动能。
当前,在大模型实时交互场景中,用户对AI服务的响应速度要求极高;同时,如果AI推理没有基于新的或更新过的内容,就会造成生成内容与事实不符、逻辑错误等情况,严重影响其可靠性和实用性。新华三新推出的 AI 数据平台解决方案,打通“算力”和“存力”之间的效率鸿沟,实现从底层硬件到上层 AI应用的数据流通加速,大幅提升AI推理的实时性、相关性与准确度,不仅优化了大模型的整体运行效率,也显著改善了真实场景中使用大模型时的响应速度与使用体验。
H3C AI数据平台解决方案:软硬协同 推理加速
AI数据平台解决方案整合了新华三与NVIDIA的领先技术,打造存算网技术深度集成的智能数据平台,并通过上层软件平台协同优化,为AI基础设施注入强劲动能,显著提升AI大模型的推理能力。
存算网深度集成,打通推理性能瓶颈
AI数据平台解决方案集成了NVIDIA Spectrum-X AI以太网网络平台,包括Spectrum以太网交换机、NVIDIA BlueField-3 DPU 数据处理器及NVIDIA ConnectX SuperNIC,将普通以太网的带宽利用率从50-60%提升至97%以上,有效应对瞬时流量高峰,保障存储与计算节点间的高速互连。BlueField-3 DPU可与H3C Polaris X20000存储系统完美适配,支持NVMe over Fabrics、NVIDIA GPU-Direct Storage(GDS)等技术,实现存储卸载和加速,涵盖数据冗余、完整性校验、解压缩和重复数据删除等功能,进一步提升存储性能并降低功耗。
新华三Polaris X20000系列专为AI智算场景设计,采用全新自研存储引擎,面向AI/HPC场景下的海量数据处理需求提供极致性能,单节点实现120GB/s带宽和200万IOPS,集群性能近线性增长,满足AI大模型训练中海量小文件高并发和百TB级带宽需求;并将块、文件、对象与HDFS协议集成于统一存储平台,从数据采集、模型训练到分发全流程实现数据零迁移。同时,系统大幅提升可靠性,毫秒级故障上报与秒级切换确保训练任务不中断,计划内/外升级扩容对上层应用无感,为企业提供稳定、高效的存储支持。
软件平台协同优化 加速智算推理引擎
在 AI-Q NVIDIA Blueprint 的支持下,代理式系统可以连接到新华三Polaris X20000高性能数据存储平台上,AI-Q 使用NVIDIA NeMo Retriever 加速数据提取和检索,NVIDIA NeMo Retriever 是用于处理海量结构化、半结构化及非结构化数据(如文本、PDF、图像、视频等)的软件。如此,可显著加速RAG(检索增强生成)应用的响应速度。
同时 NVIDIA NeMo Guardrails 可确保推理问答交互的安全性、准确性和主题相关性。新华三自主研发的灵犀使能平台(LinSeer Hub)则作为上层管理平台,提供了AI智能体和推理引擎的功能。
通过上述组件的深度整合,AI 数据平台解决方案显著提升大模型的推理性能与Token处理速度,为企业提供实时数据洞察能力,助力业务场景的智能化升级。
数据驱动 加速推理 引领智算未来
随着AI大模型的快速发展,数据已成为AI生产力的核心要素,与此同时,企业核心生产数据80%存储于外置专业存储,新华三作为存储领域的领先厂商,以Polaris X20000系列的卓越性能和灵活性,提升了AI 数据平台的能力。NVIDIA则通过硬件加速和软件能力,释放Polaris存储硬件的潜力,帮助新华三实现从“数据仓库”到“智能数据平台”的转型,形成完整的AI数据闭环。并结合存储厂商成熟的数据管理能力,构建高效AI基础设施。
作为数字化及AI解决方案提供者,新华三拥有深厚的市场积累和广泛的行业覆盖,服务于金融、电信、政务、医疗、教育、制造等多个领域。新华三此次推出的AI 数据平台解决方案,是新华三“算力╳联接”技术战略的持续深化。未来,新华三将持续携手生态伙伴,推动AI数据平台的技术革新与产业落地,助力百行百业实现高效、智能、可信的AI转型。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。