随着企业领导者采用生成式人工智能,他们必须决定是使用开源模型构建AI能力,还是依赖专有的闭源替代方案。理解这一选择的影响可能是获得可持续竞争优势与战略失误之间的关键差异。
但什么是真正的"开源"?
根据开源倡议组织(OSI)的定义,软件要被视为开源,必须为用户提供以下自由:将软件用于任何目的、研究其工作原理、修改软件,以及分享原始版本和修改版本。当应用于AI时,真正的开源AI包括模型架构(AI处理数据的蓝图)、训练数据配方(记录数据如何被选择和用于训练模型)以及权重(代表AI学习知识的数值)。
但根据OSI定义,很少有AI模型是真正开源的。
开放性的梯度
虽然完全开源的模型提供完全透明度,但很少有模型开发者愿意公布其完整源代码,更少有人对其模型训练数据保持透明。许多所谓的基础模型——最大的生成式AI模型——都是在版权最好说是模糊、最坏说是明显侵权的数据上训练的。
更常见的是开放权重系统,它们提供对模型权重的公共访问,但不披露完整的训练数据或架构。这允许更快的部署和实验,资源需求较少,但在没有完全透明度的情况下,限制了诊断偏见或提高准确性的能力。
一些公司采用阶段性开放模型。他们可能在继任者推出后发布专有模型的旧版本,提供对架构的有限洞察,同时限制对最新创新的访问。即使在这里,训练数据也很少被披露。
导航梯度
决定企业是否要利用像GPT-4o这样的专有模型,或某种程度的开放性,如LlaMA 3.3,当然取决于用例。许多组织最终会混合使用开放和封闭模型。
主要决策是模型将驻留在哪里。对于像银行这样的受监管行业,由于监管约束,数据不能离开场所,开源模型是唯一可行的选择。因为专有模型所有者需要保护其知识产权,这些模型只能通过应用程序编程接口(API)远程访问。
开源模型可以部署在公司场所或云中。
开放和封闭模型都可以针对特定用例进行微调,但开源模型提供更多灵活性并允许更深入的定制。同样,微调中使用的数据不需要离开公司的硬件。微调专有模型需要较少的专业知识,但必须在云中完成。
尽管如此,成本和延迟可能会使天平倾向于专有AI。专有提供商通常运营大规模基础设施,旨在确保快速响应时间和可预测的性能,特别是在每天处理数百万查询的聊天机器人或虚拟助手等消费者应用中。
开源AI虽然从长远来看运营成本更低,但需要在基础设施和专业知识方面进行重大投资,以实现类似的延迟和正常运行时间。
导航监管环境是部署AI的公司的另一个关注点。欧盟的人工智能法案为专有AI模型设定了更严格的透明度和问责标准。然而,专有提供商通常承担更大的合规责任,减少了企业的监管负担。在美国,国家电信和信息管理局(NTIA)正在考虑通过基于风险的视角评估AI开放性的指导方针。
当然,一个主要考虑因素是安全性。通过使用专有模型,公司将信任置于提供商,相信模型是安全的。但这种不透明性可能隐藏漏洞,使公司依赖供应商来披露和解决威胁。
另一方面,开源模型受益于全球安全研究社区,能够快速检测和修补漏洞。
尽管如此,企业通常更喜欢API访问专有模型的便利性,以进行快速原型制作。对于面向消费者的应用,专有模型快速且易于集成到产品中。
开源会超越专有模型吗?
但一个更大的问题笼罩在闭源和开源的未来。随着开源模型性能的提高,缩小与最佳专有模型性能的差距甚至超越它们,闭源模型和提供它们的公司的财务可行性仍然不确定。
中国正在推行激进的开源策略,降低其模型成本以抢夺OpenAI等公司的市场份额。通过公开发布其研究、代码和模型,中国希望以西方专有解决方案成本的一小部分使先进AI变得可及。
企业领导者的关键要点
记住Betamax,这是20世纪70年代日本索尼开发并严格控制的专有录像带格式。它败给了更开放的VHS格式,原因与许多人认为闭源AI模型最终会被开源AI超越的原因相同。
领导者必须定义他们想通过AI实现什么,无论是效率、创新、风险降低还是合规性,并让这些目标指导他们的模型选择和部署策略。例如,他们可以利用开源社区进行创新和快速原型制作,同时依赖专有解决方案处理关键任务、高安全性应用。
与外部合作伙伴协作,并根据需要利用开源和专有模型,将使组织能够负责任地创新并保持竞争力。
关键是领导者要了解其独特的运营需求、数据敏感性和技术能力——然后相应地选择。但在开源和专有AI模型之间选择与其说是二元决策,不如说是在从封闭到完全开放的连续体上找到最优模型。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。