开源软件巨头 Red Hat Inc. 今日宣布推出一系列新功能,旨在加速开发和部署,进一步强化其平台作为企业 AI 系统基础的地位。
该公司表示,对今年 9 月推出的 "Red Hat AI" 套件的更新,旨在提高 AI 训练和推理效率,同时通过混合云环境的灵活部署来简化用户体验。
Red Hat AI 包含该公司两个关键产品。首个是 Red Hat Enterprise Linux AI,这是标准 RHEL 操作系统的特制版本,专门用于部署基础大语言模型。
开发者可以使用它来部署基于 Red Hat 母公司 IBM Corp. 的 Granite 大语言模型和其他模型(如 OpenAI 的 GPT 系列)的 AI 应用。该平台以优化的、可启动的 RHEL 镜像形式提供,可部署在本地服务器或混合云环境中。
Red Hat AI 的另一个主要组件是 Red Hat OpenShift AI,这是一个可扩展的 AI 和机器学习开发平台,用于大规模创建、测试和启动 AI 应用。
据 Red Hat 表示,企业在将 AI 应用和模型与训练所需的专有数据整合时仍面临挑战,部分原因是这些信息分散在各种不同的位置,包括本地服务器、云基础设施平台,甚至网络边缘(由传感器和其他设备生成的数据)。
Enterprise Strategy Group 首席分析师 Torsten Volks 表示,快速且具有成本效益地开发、部署、集成和扩展 AI 的能力已成为当今组织的关键成功因素。
"建立这种能力需要一个开放且可扩展的 AI 基础,确保与现有系统和流程的无缝集成、运营灵活性和持续治理," 他说。
Red Hat 表示,今天对 Red Hat OpenShift AI 和 RHEL AI 的更新有助于巩固这一基础,为开发更高效和优化的模型铺平道路。这些模型可以根据特定业务数据进行微调,同时确保数据安全。然后可以在任何位置部署在各种加速计算架构上,包括 Nvidia Corp. 的图形处理单元。
Red Hat OpenShift AI
从今天开始全面可用的 Red Hat OpenShift AI 2.18 增加了新功能,包括支持分布式服务,使团队能够在多个 GPU 之间分配模型服务,以减轻服务器基础设施的运营负担。通过在 GPU 集群上部署 AI,团队可以大幅加快训练和推理过程,并最大化底层基础设施的效率。
OpenShift AI 还增加了对 Red Hat AI InstructLab 和 OpenShift AI 数据科学流水线的支持,创建"端到端模型调优体验"。它在大型生产环境中更具可扩展性和可审计性,有助于提升 AI 应用安全性。
此外,还为大语言模型增加了增强的安全护栏,旨在提高其性能和输出准确性,同时增加透明度。新的护栏监控输入和输出,使用户能够识别和缓解所谓的"提示注入攻击",这些攻击试图操纵 AI 系统生成辱骂性、仇恨或亵渎性言论或泄露敏感信息。
该平台还新增了语言模型评估组件,提供关于大语言模型整体质量的重要见解,帮助数据科学家在各种不同任务(如数学和逻辑推理)中对其性能进行基准测试。
Red Hat Enterprise Linux AI
对于 RHEL AI,主要更新是支持最新的 Granite 3.1 8B 模型,这是开源且硬件高效的 Granite 大语言模型系列中最强大的版本。它是第一个具有多语言推理支持以及分类法和知识定制的版本,并具有更大的 128K 上下文窗口,可以提供更好的摘要输出。
RHEL AI 还获得了改进的图形用户界面,以支持对 AI 模型的技能和知识贡献。作为开发者预览版提供,它旨在简化数据摄取和分块任务,使开发者更容易增强他们正在使用的大语言模型的知识。
最后,还有一个新的文档知识基准,使开发者更容易比较使用私有数据训练的不同微调大语言模型的性能。
Red Hat AI 副总裁兼总经理 Joe Fernandes 表示,企业仍在寻找方法来简化私有数据与其 AI 模型的集成,并管理这些活动不断上升的成本。
"Red Hat AI 通过使企业能够利用在其数据上训练的更高效、专用模型,以及跨本地、云和边缘环境的灵活推理,帮助企业应对这些挑战," 他说。
在今天宣布的其他更新中,Red Hat 表示将很快把流行的 InstructLab 工具引入 IBM Cloud,使团队在该平台上训练大语言模型时能够简化、扩展和提升其安全性。该工具计划在春季推出,对于需要使用私有数据微调 AI 模型的团队来说应该特别有用。
最后,Red Hat 表示,其客户现在可以免费访问其 AI Foundations 在线培训课程。这些课程对非客户收费,提供两种 AI 学习证书路径,分别面向经验丰富的专业人士和 AI 新手,教育学习者如何利用 AI 改善业务运营和决策制定并加速创新。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。