您的AI供应商已成为业务单点故障风险

传统供应商锁定风险相对可控,但AI模型依赖带来了全新挑战。大多数企业仍按常规方式处理AI供应商锁定问题,这是一个错误。专家指出,企业为基础设施各层制定灾难恢复计划,却很少考虑AI模型突然消失的应对措施。模型依赖问题主要体现在数据管道、专有功能和商业条款的绑定上。技术实践显示,不同模型对相同提示的响应差异可超过300%,多模型架构成本可增加400%。

传统的供应商锁定虽然不理想,但还算可控。而如今的AI模型依赖带来了截然不同的挑战,但大多数公司仍将AI供应商锁定视为常规业务问题。这是一个错误认知。AI领域没有什么是常规业务,模型集中化更是如此。这是一个关键的业务风险,但很大程度上未被认知,因此通常不存在缓解措施。

Omdia的实践总监兼首席分析师Mike Leone表示:"我与企业交流时发现,他们为基础设施的每一层都制定了灾难恢复计划,但几乎没有人考虑过如果运行其产品的AI模型明天消失会发生什么。"

也许这是因为很少有人能想象基础AI供应商会陷入困境、崩溃或被收购,特别是考虑到该行业累计投入的数千亿美元。但市场运作并非如此。产品周期不会因为热门趋势而暂停。历史是无情的:昨天的技术宠儿会成为明天的警示故事。

美国人工智能协会伦理与负责任AI委员会董事会成员兼创始主席、以人为本的AI策略师Elizabeth Ngonzi表示:"真正的风险不是工具本身,而是组织与工具绑定的紧密程度。在AI时代,这表现为隐藏在进步表象下的单点故障。基础模型不再只是基础设施,它们已经融入决策、工作流程和客户体验中。当定价、行为或可用性发生变化时,冲击可能会同时波及整个产品表面。"

AI依赖问题的潜伏之处

理论上,迁移到另一个模型应该是防止或解决模型依赖的最合理答案,其实施应该是一个直接的过程。

企业软件支持和维护第三方提供商Origina的首席创新官兼联合创始人Rowan O'Donoghue表示,从以往软件依赖经验中获得的传统智慧要求标准化模型、分离业务逻辑,并将模型视为可互换的。

"但在实践中,依赖并非出现在这里;它通过数据管道、专有功能和商业条款悄然渗入。如果你的数据与供应商的格式绑定,你的团队依赖于只存在于一个生态系统中的功能,"O'Donoghue说道。

虽然利用多模型架构可以提供帮助,但只有在架构早期就设计进去才有效。"否则,会发生的情况是一个模型变得主导,其他一切都只是为了心理安慰而存在,"O'Donoghue表示。

"在企业世界中,这并不新鲜。一旦供应商控制了你的生命周期,你就不再拥有自己的路线图。AI并没有改变这一点;它只是在加速这个过程,"他补充道。

技术依赖问题案例研究

在模型依赖的技术方面有很多需要考虑的问题,但韩博俊的第一手经验为这些问题提供了重要见解。韩博俊是台湾ROSTA实验室的CTO兼创始人、独立AI基础设施研究员,也是Java全栈工程师。他运行着一个日常多模型编排设置,使用超过八个大语言模型,包括Claude、Gemini、Perplexity等,全部通过OpenRouter的API。

"我亲身经历过在项目进行中模型被弃用,必须在不中断正在进行的工作负载的情况下执行实时切换,"韩博俊说道。

他补充说,管理复杂系统中的可重现性和连续性是他经常思考的问题。

"对我来说,AI连续性不是学术问题,而是业务约束,"他说。

韩博俊使用三层设置:应用层通过标准化代理客户端发送请求。中间层Python + Redis路由器根据延迟和成本分派作业;Claude处理长上下文工作,Gemini处理快速分类。基础层管理供应商间的API密钥轮换。

"理论上,这听起来很清晰。实际上,隐藏的问题几乎总是出现在提示中,而不是基础设施中,"韩博俊说道。

不同模型对相同系统提示的响应差异巨大。韩博俊发现Claude偏好XML风格的指令格式,而Gemini期望JSON模式,"它们之间在结构化输出任务上的敏感度差距可能超过300%。"

"在一个模型上完美工作的提示在另一个模型上可能无声地产生垃圾。大多数团队直到已经处于危机迁移中才发现这一点,"韩博俊警告道。

他发现的第二个潜在问题是多模型集成中的幻觉不一致性。

"如果模型A 90%的时间是正确的,模型B 70%的时间是正确的,天真地聚合它们的输出不会给你90%的准确率,而是噪音,"韩博俊说道。

为了解决这个问题,他必须引入一个仲裁层,以更大的延迟为代价提高输出可靠性,并在AI连续性检查清单中增加了一个步骤。

遭遇单点故障的现实

从更广阔的视角来看,当企业持续更新到最新AI模型时会出现更广泛的潜在问题。追求特定模型版本会在连续性问题中创造复杂性,难以理清。对于网络安全培训提供商Cybrary的COO Nick Misner来说,五角大楼最近的指令为这种复杂性提供了一个有用的实际例子。

"它造成如此大破坏的原因不是人们缺乏正确的工具;而是AI如此深度地嵌入到系统和供应链中,通常以不明显的方式,快速解开它几乎是不可能的。这不是技术故障,而是准备不足的故障,"Misner说道。

他警告不要过分批评那些在指令下达时难以执行快速模型交换的组织——毕竟,这是新技术,没有明显的反射性答案。尽管如此,CIO必须将这些事件解读为警告。

"如果五年后我们还在进行同样的对话并看到同样的反应,那才是真正的问题,"Misner说道。

为意外情况做准备

鉴于实际构建AI连续性计划的企业如此之少,目前正在进行相当多的实验,过程中有不少意外发现。

对韩博俊来说,这回到了对提示相比基础设施的低估。企业可能适当地衡量工程师更改配置文件所需的时间,但没有考虑提示考古学的时间。

"你可以在一个下午内交换API端点。重写和重新验证整个提示库需要几周时间,"韩博俊说道。

另一个重大意外来自运行多模型架构的费用,这"可以给你弹性,但也可能给你一个出人意料的巨额账单,"韩博俊说道。他发现8个模型的集成在同等容量下的成本可能比单模型设置高出400%。

构建AI连续性计划

虽然情况可能有所不同,但在开发AI连续性计划的早期成功中有几个共同的关键要素。分数式AI团队提供商Alongside AI的联合创始人Evan Glaser建议采用以下措施:

最终,"能够很好地应对这种情况的组织不是那些拥有最先进模型的组织。而是那些将模型视为弹性系统内可替换部件,而非其策略中心的组织,"Ngonzi说道。

Q&A

Q1:AI模型依赖为什么比传统供应商锁定更危险?

A:AI模型依赖与传统供应商锁定不同,因为基础模型已经深度融入决策、工作流程和客户体验中。当模型的定价、行为或可用性发生变化时,冲击会同时波及整个产品表面,形成隐藏的单点故障风险。

Q2:多模型架构能解决AI依赖问题吗?

A:多模型架构只有在早期设计时才有效。如果后期添加,通常一个模型会变得主导,其他模型只是心理安慰。而且多模型架构成本高昂,8个模型集成的成本可能比单模型设置高出400%。

Q3:企业如何为AI模型故障做好准备?

A:企业应该制定AI连续性计划,包括将模型视为可替换的基础设施组件、建立标准化的模型接口、准备提示库的备份和验证方案,以及建立多模型架构的仲裁机制来处理输出差异。

来源:InformationWeek

0赞

好文章,需要你的鼓励

2026

04/02

08:58

分享

点赞

邮件订阅