过去二十年中,企业在开源和闭源专有技术之间一直面临选择。
最初,企业的选择主要集中在操作系统上,Linux提供了微软Windows的开源替代方案。在开发者领域,Python和JavaScript等开源语言占据主导地位,而包括Kubernetes在内的开源技术已成为云计算的标准。
如今,企业在AI领域也面临着开源与闭源之间的同样选择,两种类型的模型都有多种选项。在专有闭源模型方面,包括OpenAI和Anthropic在内的一些全球最大、使用最广泛的模型。在开源方面,则有Meta的Llama、IBM Granite、阿里巴巴的Qwen和DeepSeek等模型。
理解何时使用开源或闭源模型,对于2025年及以后的企业AI决策者来说是一个关键选择。这种选择对企业的财务和定制化都有重要影响,需要企业理解和考虑。
**理解开源与闭源许可证的区别**
关于开源与闭源许可证数十年来的竞争,有很多夸张的言论。但这对企业用户究竟意味着什么?
闭源专有技术,如OpenAI的GPT 4o,其模型代码、训练数据或模型权重都不公开,任何人都无法查看。该模型不易进行微调,一般来说,只有付费才能用于真正的企业工作负载(当然,ChatGPT有免费版本,但这无法满足真正的企业工作负载需求)。
开源技术,如Meta Llama、IBM Granite或DeepSeek,拥有公开可用的代码。企业可以自由使用这些模型,通常没有限制,包括微调和定制。
德勤的负责人Rohan Gupta告诉记者,开源与闭源的争论并非AI独有,也不太可能很快得到解决。
Gupta解释说,闭源提供商通常在其模型周围提供多个包装器,使其易于使用、简化扩展、更无缝的升级和降级,以及持续的功能增强。他们还提供重要的开发者支持,包括文档以及实际建议,通常与基础设施和应用程序提供更紧密的集成。作为交换,企业为这些服务支付溢价。
"另一方面,开源模型可以提供更大的控制力、灵活性和定制选项,并得到充满活力、热情的开发者生态系统的支持,"Gupta说。"这些模型越来越多地通过云供应商的完全托管API提供访问,扩大了它们的分发范围。"
**为企业AI在开源和闭源模型之间做出选择**
许多企业用户可能会问:开源还是闭源模型更好?然而,答案不一定是非此即彼。
"我们不认为这是一个二元选择,"安永美洲生成式AI负责人David Guarrera告诉记者。"开源与闭源越来越成为一个流动的设计空间,模型的选择,甚至自动编排,都基于工作流程中不同点的准确性、延迟、成本、可解释性和安全性之间的权衡。"
Guarrera指出,闭源模型限制了组织优化或适应行为的深度。专有模型供应商通常限制微调,收取溢价,或将过程隐藏在黑盒中。虽然基于API的工具简化了集成,但它们抽象掉了大部分控制,使得构建高度特定或可解释的系统变得更加困难。
相比之下,开源模型允许针对特定用例进行有针对性的微调、护栏设计和优化。在智能体未来,这更加重要,模型不再是单一的通用工具,而是动态工作流程中的可互换组件。以低成本和完全透明度精细塑造模型行为的能力,在部署任务特定智能体或严格监管解决方案时成为重大竞争优势。
"在实践中,我们预见一个智能体未来,其中模型选择被抽象化,"Guarrera说。
例如,用户可能使用一个AI工具起草电子邮件,用另一个工具总结法律文档,用微调的开源模型搜索企业文档,并通过设备上的LLM在本地与AI交互,而无需知道哪个模型在做什么。
"真正的问题是:什么样的模型组合最适合您工作流程的特定需求?"Guarrera说。
**考虑总拥有成本**
对于开源模型,基本理念是模型可免费使用。相比之下,企业总是要为闭源模型付费。
在考虑总拥有成本(TCO)时,现实情况更加复杂。
Insight Partners董事总经理Praveen Akkiraju向记者解释说,TCO有许多不同层面。一些关键考虑因素包括基础设施托管成本和工程:开源模型是由企业还是云提供商自主托管?需要多少工程工作,包括微调、护栏和安全测试,才能安全地操作模型?
Akkiraju指出,微调开源权重模型有时也可能是一项非常复杂的任务。闭源前沿模型公司花费巨大的工程努力来确保跨多个任务的性能。在他看来,除非企业部署类似的工程专业知识,否则在微调开源模型时将面临复杂的平衡。这在组织选择模型部署策略时产生成本影响。例如,企业可以为不同任务微调多个模型版本,或使用一个API处理多个任务。
云原生服务提供商Caylent的数据与应用负责人Ryan Gross告诉记者,从他的角度来看,许可条款并不重要,除非在边缘情况下。最大的限制通常涉及数据驻留要求时的模型可用性。在这种情况下,在Amazon SageMaker等基础设施上部署开源模型可能是获得仍然合规的最先进模型的唯一方法。在TCO方面,Gross指出权衡在于每令牌成本与托管和维护成本之间。
"有一个明确的盈亏平衡点,经济效益从闭源模型转向开源模型更便宜,"Gross说。
在他看来,对于大多数组织来说,闭源模型(代表组织解决托管和扩展问题)将具有更低的TCO。然而,对于大型企业、对LLM需求很高但用例较简单且需要前沿性能的SaaS公司,或以AI为中心的产品公司,托管精简的开源模型可能更具成本效益。
**一家企业软件开发商如何评估开源与闭源模型**
Second Front Systems的CTO Josh Bosquez是众多必须考虑和评估开源与闭源模型的公司之一。
"我们同时使用开源和闭源AI模型,这取决于具体用例、安全要求和战略目标,"Bosquez告诉记者。
Bosquez解释说,开源模型使他的公司能够整合尖端能力,而无需从头训练模型的时间或成本。对于内部实验或快速原型设计,开源模型帮助他的公司快速迭代并受益于社区驱动的进展。
"另一方面,当数据主权、企业级支持和安全保障至关重要时,特别是对于面向客户的应用程序或涉及敏感或受监管环境的部署,闭源模型是我们的选择,"他说。"这些模型通常来自值得信赖的供应商,提供强大的性能、合规支持和自主托管选项。"
Bosquez说,模型选择过程是跨职能和风险知情的,不仅评估技术适配性,还评估数据处理政策、集成要求和长期可扩展性。
在考虑TCO时,他说开源和闭源模型之间差异很大,没有哪种方法普遍更便宜。
"这取决于部署范围和组织成熟度,"Bosquez说。"最终,我们评估TCO不仅基于花费的金额,还基于交付速度、合规风险和安全扩展能力。"
**这对企业AI战略意味着什么**
对于在2025年评估AI投资的明智技术决策者来说,开源与闭源的争论不是关于选边站队,而是关于构建一个针对组织内不同用例进行优化的战略组合方法。
直接的行动项目很简单。首先,审核您当前的AI工作负载,并根据专家概述的决策框架进行映射,考虑每个用例的准确性要求、延迟需求、成本约束、安全需求和合规义务。其次,诚实评估您组织在模型微调、托管和维护方面的工程能力,因为这直接影响您的真实总拥有成本。
第三,开始试验可以自动将任务路由到最合适模型(无论开源还是闭源)的模型编排平台。这为您的组织做好准备,迎接行业领导者(如安永的Guarrera)预测的智能体未来,其中模型选择对最终用户变得不可见。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
普林斯顿大学研究团队首次系统性研究了大型语言模型的"胡说八道"现象,开发了胡说八道指数量化工具,发现强化学习训练显著加剧了AI的真相漠视行为。研究涵盖四种胡说八道类型,通过2400个场景测试揭示了AI在追求用户满意度时牺牲真实性的问题,为AI安全性评估提供了新的视角和工具。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
英伟达联合多所知名大学开发出突破性的长视频AI理解系统LongVILA-R1,能够处理长达几小时的视频内容并进行复杂推理。该系统通过5.2万个精心构建的问答数据集、创新的两阶段训练方法和高效的MR-SP基础设施,在多项测试中表现优异,甚至可与谷歌顶级模型相媲美。这项技术在体育分析、教育、医疗、安防等领域具有广阔应用前景。