为何云原生应用的迅速普及需要更快、更高效的工具集

本文探讨了云原生环境中 AI/ML 负载激增带来的变革,强调借助 Kubernetes 等新型工具实现规模、敏捷和便携优势,并以 Pizza Hut 案例说明云原生开发如何驱动业务升级。

赞助专题 目前,在云原生环境中 AI 开发最重要的趋势是 AI/ML 工作负载与云原生架构及实践的快速融合,这一现象也被称为 Cloud Native AI 或 AI-Native Cloud。该趋势标志着开发实践的根本转变——从传统开发方式转向以充分利用云原生方法所固有的可扩展性、灵活性、韧性和效率的方式构建和部署 AI 应用。

为何这一点如此重要?原因其实并不复杂:一切都归结于速度和效率,而良好的开发必然如此,这往往需要新一代工具才能实现。使用正确的工具(包括跨平台工作负载编排器 Kubernetes)可直接影响企业的盈利,通过提升 IT 系统关键绩效指标 ( KPI ) 来实现。这些指标包括:

可扩展性和资源效率:

云原生环境提供所需的弹性基础设施,以应对 AI/ML 工作负载对计算资源的高要求,允许根据需要进行纵向或横向扩展,并优化成本。

敏捷性和更快的创新:

云原生实践所提供的模块化和自动化支持加速了 AI 应用的开发、测试和部署,从而加快了创新步伐。

可移植性和灵活性:

容器化和编排技术使得 AI 模型可以部署在不同云服务商或混合环境中,避免了厂商锁定,并提供了更大的灵活性。

云产品和服务的销售商——目前占美国所有电子商务交易的 16% 到 20%——需要特别注意这一点,Nutanix 产品管理高级总监 Dan Ciruli 对 The Register 说。"无论你销售什么,都可以说你同时是一家软件公司," Ciruli 说,"如果你不对 IT 运营进行现代化改造,你很快就会倒闭。这就是为什么云原生(开发)对企业如此重要。"

使用正确的工具进行云原生开发还能带来其他显著成果——越来越多经验丰富的云开发者已经证明,这包括改进协作、更准确的治理和可重复性,以及成本控制的优化。

云原生平台和 MLOps ( machine learning operations ) 实践促进了数据科学家、开发者与运维团队之间更好的协作,从而简化了 AI 生命周期。云原生工具和 MLOps 工作流支持模型版本控制、追踪、监控及解释性,这对于负责任的 AI 开发和部署至关重要。按需付费模式与云原生环境中高效的资源利用可以为 AI 开发和部署带来显著的成本节约。

实例如下:一家知名披萨连锁通过适应云端实现了业务飞跃

Ciruli 表示,上述各项成果都在一个重要的早期案例中得到了体现,该案例涉及一个新一代云原生开发项目。

"25 年前 Netscape 创始人 Marc Andreessen 曾说过 'Software is eating the world' ( 软件正在吞噬世界 )," Ciruli 说。

"直到大约五六年前,我在一家 Kubernetes 用户总部,我才真正理解这句话的含义。那是一家成立于 1958 年的实体企业,多年来经历了诸多 IT 变革。

"进入 21 世纪时,他们在北美拥有 6,000 个门店,但由于数字体验糟糕,他们逐渐失去了市场份额——并非产品出了问题,而是他们的应用体验差。其移动应用糟糕,而现代消费者希望通过应用下单。他们意识到必须采取一系列措施来革新体验,使客户能够顺利通过应用下单,并实现从生产到交付全流程追踪,直至送货上门。"

如果你已经猜到了,这家公司正是 Yum Brands 旗下的 Pizza Hut。

Ciruli 说:"公司意识到必须在一分钟内完成所有销售和追踪工作。他们需要一个 API 来支持销售渠道,通过合作伙伴销售产品,同时还能快速创新,并在必要时随时进行调整。"

Ciruli 补充道,他们不仅需要快速响应,更不能有任何停机时间,因为他们的 6,000 个门店都依赖数字服务来正常运作。因此,他们的做法是构建一个现代化应用,打造一个现代化后端,并运行在基于 Kubernetes 的现代基础设施上。"他们成功做到了,并挽救了企业," Ciruli 说。

云原生开发者的解决方案:Nutanix Kubernetes Platform ( NKP )

云原生 IT,特别是涉及 Kubernetes 的部分,并不仅仅是炒作。这些新一代技术工具——仅有十年左右历史——正通过提供构建现代 AI 应用所需的灵活性、可扩展性和效率,使得 AI 工作负载成为现实。多数过程实现了自动化,使得时间紧迫的 IT 部门也能实现快速开发。生成式 AI 以及 agentic AI 还通过提供精确的代码建议来缩短开发和测试时间。

NKP 是一个功能齐全的解决方案,可部署和管理横跨多种环境(包括本地数据中心、边缘节点和公有云)的 Kubernetes 集群。新 NKP 套件包含以下主要资产:

针对 AI 工作负载的 Kubernetes:Kubernetes 以即时分发微服务而著称,非常适合管理动态且资源密集的 AI 工作负载。它能够高效共享昂贵的资源——例如 GPU——并支持快速迭代和部署,这对 AI 开发至关重要。Kubernetes 使得 AI 应用能在公有云、私有云和边缘环境间真正实现可移植。

Kubernetes 在 AI 领域的实际应用:包括 OpenAI、Spotify 和 Uber 在内的领先 AI 公司都在 Kubernetes 上运行其模型,这充分证明了其在管理复杂计算需求方面的高效性。一项相关数据:Cloud Native Computing Foundation ( CNCF ) 2024 年云原生调查 [ PDF ] 指出 "如今的世界是 Kubernetes 的世界:93% 的公司在生产中使用、试点或积极评估 Kubernetes。"

NAI 与 Kubernetes 的整合:Nutanix Enterprise AI ( NAI ) 可在 Kubernetes 集群中运行,使组织能够轻松将新 AI 模型投入生产。Nutanix 将 AI 集成到 Kubernetes 的功能中,例如通过 AI Navigator 聊天机器人来协助工程师进行故障排查和系统监控。

灵活性和可移植性:在 Kubernetes 上运行的容器确保了 AI 应用可以在本地数据中心与公有云之间部署而不受厂商锁定限制。这对于追求混合云和多云策略、并注重成本、性能和数据主权的组织尤为重要。

云原生开发的变革潜力:云原生驱动的 AI 应用有潜力通过更好、更快的数据驱动决策及更高的生产力来变革业务运营。Kubernetes 容器所具备的模块化和便携性正好支持这种转型。

借助 Nutanix GPT-in-a-Box 实现的便捷部署:在 Kubernetes 上运行的 GPT-in-a-Box,使 Nutanix 能让组织轻松将 AI 模型投入生产。该解决方案简化了 AI 第2天( Day 2 )的运维工作,并适应生成式 AI 的新进展,提供了一套经过验证的技术堆栈,实现了操作、基础设施和服务的高效整合。毕竟,这是一个 Kubernetes 的世界

事实证明,AI 热潮正在为云原生应用开发注入强大动力,而 Kubernetes 则是这台引擎。在企业争相构建可扩展、快速且灵活的 AI 驱动服务之际,传统工具已显不足。新一代平台如 NKP 的出现,不仅简化了部署过程、最大化了系统正常运行时间,还大幅缩短了开发周期——这些都直接反映在企业的底线上。从披萨连锁到 OpenAI 等领先企业,云原生 AI 正在拯救企业、实现基础设施现代化,并释放出前所未有的敏捷性——因为在当今市场,要么快速创新,要么面临被淘汰的风险。

来源:The Register

0赞

好文章,需要你的鼓励

2025

05/14

14:24

分享

点赞

邮件订阅