Graid公司凭借其基于Nvidia GPU的RAID卡产品在技术细分市场中占据重要地位,正在推进包含人工智能和高性能计算(HPC)产品的开发路线图。
该公司表示目前在全球拥有数千家客户,推出了三款SupremeRAID产品:SR-1010企业级性能卡、SR-1000企业级主流卡和SR-1010工作站及边缘卡。Graid声称2024年营收翻倍,出货约5000张卡片,相比2023年有显著增长。公司预计今年可能在2024年基础上增长60%,通过扩大OEM和经销商合作,营收可能达到1500万美元,销售约7000张卡片。
Graid表示SupremeRAID产品能够保护数据免受驱动器故障影响,并消除存储IO路径中的瓶颈。产品本身并不直接加速任何功能。在硅谷IT媒体巡展中展示的SupremeRAID路线图包含五个组成部分:
SE(简化版)桌面端测试版;AE(人工智能版)面向GPU服务器和AI工作负载;SR-1000 AM(Ampere)基于Nvidia RTX A1000 GPU的NVMe RAID;S1001 AM基于Nvidia RTX A1400 GPU的NVMe RAID;HE(HPC版)NVMe RAID具备阵列迁移功能,支持跨节点高可用性(HA)。
SupremeRAID SE是公司首次进入"自带GPU"市场的产品。它将为PC/工作站用户提供企业级RAID保护和性能,采用订阅模式,今年内发布。该产品支持最多8个NVMe SSD,使用PC中的兼容GPU。建议的工作负载包括视频编辑、后期制作、3D渲染、动画、游戏视觉特效、CAD、建筑、工程和建设(AEC)应用。
面向人工智能的AE版本支持GPUDirect直接NVMe到GPU内存传输,以及数据卸载到NVMe SSD。Graid表示该版本"与BeeGFS、Lustre和Ceph无缝集成,简化大规模数据集管理,无需数据迁移"。在提供RAID保护的同时,可实现超过95%的原始NVMe驱动器性能。
Graid美洲和欧洲、中东、非洲地区高级副总裁兼总经理Thomas Paquette表示:"我们在这个版本中没有内置故障转移功能,将在下一个版本中构建。这将为您提供在不同GPU上放置两个软件副本的机会,实现读取故障转移。"
Graid表示,一个完全启用的Nvidia H100加速器具有144个SM(流式微处理器)或多处理器,大致相当于一个x86核心,管理多个线程和核心进行并行处理。SupremeRAID-AE在一个GPU上使用6个SM,不影响其他部分。它通过时分复用(TDM)实现。Paquette表示AE可以使用更少的SM:"在低IO情况下,我们可以进入睡眠状态并为GPU提供更多资源,我们通过TDM实现了这一点。"
他补充道:"这是我们部署的最佳方式,效果很好。它现在在Supermicro的实验室中。他们正在进行扩展测试。我们正在与Dell测试,也将在联想的实验室中进行产品项目测试。"
Paquette预想Graid将成为一家纯软件公司,只销售许可证。
Nvidia RTX A1000和A400单插槽桌面GPU于去年4月发布,采用Ampere架构。A400引入了加速光线追踪,配备24个用于人工智能处理的Tensor核心和4个显示输出。A1000拥有72个Tensor和18个RT核心,性能更强。
SR-1000 AM结合了SR-1000和SR-1010的功能和性能。SR-1001 AM是SR-1001的后续产品,性能相当但效率更高。
这些AM产品将配备新的Graid软件版本v1.7,具有新GUI、RESTful API、数据完整性日志记录、坏块检测和改进的错误重试机制。
SupremeRAID HE针对HPC环境中的BeeGFS、Ceph和Lustre环境进行了优化。它消除了跨节点数据复制并支持阵列迁移。Graid和Supermicro制作了关于BeeGFS SupremeRAID HE系统的解决方案简报,该系统在每个节点中使用SupremeRAID HE和SupremeRAID SR-1010。
文档表示:"SupremeRAID HE与Supermicro的SSG-221E-DN2R24R和BeeGFS集成,重新定义了NVMe存储标准。利用阵列迁移实现跨节点高可用性(HA),在配备两个24核CPU的2U系统中提供峰值性能,饱和两个400Gb/s网络。通过消除跨节点复制,降低NVMe成本并提供可扩展的适应性。本地读取速度达到132 GB/s,写入速度达到83 GB/s——接近RAID后的理论极限——客户端读取速度可达93 GB/s,写入速度可达84 GB/s,这一解决方案非常适合高性能存储需求,包括HPC、分析和企业应用,并经过严格基准测试验证。"
Paquette表示:"Supermicro称这可能是WEKA杀手,我们需要相当好的扩展才能成为WEKA杀手,但没有什么能阻止我们这样做。"
Graid表示下一个软件版本将增加支持的驱动器数量,从32个扩展到可能的64个,今年晚些时候将发布新的Linux和Windows软件版本。
公司还将支持新的PCIe世代,Paquette表示:"每次PCIe从三代到四代、四代到五代、五代到六代变化时,我们无需对产品做任何改动就能自动获得指数级性能提升。因为我们在服务器中遇到的唯一瓶颈是PCIe基础设施。我们可以使其饱和。所以当六代到来时,我们也会使其饱和。"
纠删码编码在其路线图上,但没有承诺的日期。我们了解到现有的Dell和Graid合作关系可能会进一步发展。Graid也是Nvidia Storage-Next计划的参与者。
Graid是否支持非Nvidia GPU?Paquette表示:"我们知道可以让它在Intel GPU上工作。我们知道可以让它在AMD GPU上工作,但这需要从头重写,我们有太多其他事情要做,无法涉足这个领域。"
好文章,需要你的鼓励
当前企业面临引入AI的机遇与挑战。管理层需要了解机器学习算法基础,包括线性回归、神经网络等核心技术。专家建议从小规模试点开始,优先选择高影响用例,投资数据治理,提升员工技能。对于影子IT现象,应将其视为机会而非问题,建立治理流程将有效工具正式化。成功的AI采用需要明确目标、跨部门协作、变革管理和持续学习社区建设。
这项由东京科学技术大学等机构联合发布的研究提出了UMoE架构,通过重新设计注意力机制,实现了注意力层和前馈网络层的专家参数共享。该方法在多个数据集上显著优于现有的MoE方法,同时保持了较低的计算开销,为大语言模型的高效扩展提供了新思路。
美国垃圾收集行业2024年创收690亿美元,近18万辆垃圾车每周运营六至七天,每日停靠超千次。设备故障成为行业最大隐性成本,每辆车年均故障费用超5000美元。AI技术通过实时监控传感器数据,能提前数周预测故障,优化零部件库存管理,减少重复维修。车队报告显示,预测性维护每辆车年节省高达2500美元,显著提升运营效率和服务可靠性。
小米团队开发的MiMo-7B模型证明了AI领域"小而精"路线的可行性。这个仅有70亿参数的模型通过创新的预训练数据处理、三阶段训练策略和强化学习优化,在数学推理和编程任务上超越了320亿参数的大模型,甚至在某些指标上击败OpenAI o1-mini。研究团队还开发了高效的训练基础设施,将训练速度提升2.29倍。该成果已完全开源,为AI民主化发展提供了新思路。