Meta放弃开源Llama转向专有模型Muse Spark,开发者何去何从

Meta宣布推出全新专有AI大模型Muse Spark,实际上已放弃对开源Llama的持续投入。Muse Spark由Meta超级智能实验室从零构建,采用全新架构,仅支持云端访问,无法下载权重或自托管。这一转变令数以千计依赖Llama的开发者陷入困境。由于两者部署模式根本不同,迁移路径并不存在。现有用户可选择继续使用现有Llama模型、转向Mistral或DeepSeek等开源替代品,或迁移至主流专有API,但迁移成本不容忽视。

Meta最近宣布推出全新专有大语言模型Muse Spark,这一举措实际上意味着该公司已将Llama的开发工作搁置一旁。

回顾过去,2023年Meta发布Llama 2.0时,曾高调宣传其开源属性,赢得了大批开发者的好感。2024年10月,Meta创始人兼CEO马克·扎克伯格更是公开表示"开源AI是未来的方向"。去年3月,该公司还专门发布新闻稿,庆祝Llama下载量突破10亿次。

然而,时过境迁。

Meta超级智能实验室是2025年新成立的部门,由扎克伯格亲自招募Scale AI的亚历山大·王来主导Meta的AI战略,Muse Spark正是由该实验室开发。据悉,扎克伯格对Llama在性能上落后于ChatGPT和Claude深感不满,因此决定以全新的基础设施、架构和数据管道从零构建Muse Spark,并不惜重金从竞争对手处挖角AI人才。Muse Spark与Llama在技术上毫无关联。

Meta目前尚未就降低Llama优先级一事作出官方回应。当The New Stack就此向Meta求证时,对方也未予答复。不过,从Meta公开表态来看,其声称"现有Llama模型将继续以开源形式提供",但这仅意味着已有模型仍可使用,并不涉及未来的开发计划。AI社区普遍预期,Llama今后只会获得小幅更新和基础维护,不会再享有Muse Spark那样的大规模前沿投资。

Llama与Muse Spark之间不存在迁移路径,因为两者在部署模式上存在根本性差异。Llama提供可下载的开放权重,支持本地部署和微调;而Muse Spark仅支持云端部署,不提供可下载权重,不支持自托管,目前也仅开放私有API预览访问。即便Meta日后履行承诺、开源部分新模型,Llama用户如何顺利迁移至新平台,仍是一个难以回答的问题。

AI领域知名人士吴恩达在其通讯《The Batch》中写道:"此次专有发布引发了开发者的广泛担忧,因为许多人都在基于开放权重的Llama模型构建项目。"与此同时,他也指出,Meta的战略转型或许有助于其"在商业客户市场上与OpenAI、谷歌和Anthropic一较高下。然而,Meta放弃美国开放权重领军者地位,对开发者社区而言是一大损失"。

目前仍有大量用户在使用Llama。一年前,Meta公布的数据显示,Llama下载量已达12亿次。尽管当时就有开发者认为Meta对Llama的投入力度已不足以与主流前沿模型抗衡,仍有数千家企业及无数个人开发者坚持在使用。面对这一变局,他们有哪些选择?

Llama开发者的可用选项

继续使用现有Llama模型,该模型仍可在主流云服务商平台上获取,但其性能与前沿竞品的差距将日益扩大。

切换至Mistral、DeepSeek或阿里巴巴Qwen等竞争性开源模型。

迁移至主流AI服务商的专有API。事实上,Meta内部工程师早在Muse Spark推出之前便已转向Claude Sonnet。

需要指出的是,迁移成本相当可观,涉及重写特定厂商API、适配专有训练数据,以及重新整合定制工具与工作流程,既不简单,也不便宜。

Llama分支项目成为重要出路

对于众多Llama用户而言,使用各类Llama分支项目或许是最为便捷的过渡方式。其中最具代表性的当属llama.cpp,这是一款广受欢迎的C++推理引擎,支持本地运行Llama模型,并兼容多种大语言模型,远不止Meta的Llama系列。

从llama.cpp衍生出了多个重要分支:ik_llama.cpp主打性能优化,宣称在CPU及GPU/CPU混合运算方面的表现优于llama.cpp;Rkllama则是面向嵌入式系统的Rockchip NPU分支,将llama.cpp与Rockchip NPU加速能力整合,适配RK3588等芯片,兼容几乎所有标准llama.cpp模型;llama-rs是基于Rust语言的实现版本,以"超快本地AI分支"为卖点。

此外,OpenLLaMA是Meta原始LLaMA模型的Apache授权开源复刻版本,提供3B、7B和13B三种参数规模,均基于1万亿Token训练完成,并附带PyTorch和JAX的模型权重。

Meta或许将从这次战略转型中获益,但广大Llama用户不得不自寻出路。这条路,并不好走。

Q&A

Q1:Muse Spark和Llama有什么本质区别?

A:两者在部署模式上存在根本差异。Llama提供可下载的开放权重,支持本地部署和自定义微调;而Muse Spark是纯云端产品,不提供可下载权重,不支持自托管,目前也仅开放私有API预览访问。此外,Muse Spark完全基于全新基础设施和架构构建,与Llama没有任何技术继承关系,两者之间也不存在官方迁移路径。

Q2:Llama现在还能继续用吗?

A:可以继续使用,Meta表示现有Llama模型将继续以开源形式提供,主流云服务商平台上也仍可获取。但需注意,Llama今后预计只会获得小幅更新和基础维护,不会再有大规模前沿技术投入,其性能与ChatGPT、Claude等主流模型的差距将持续扩大。

Q3:Llama开发者有哪些替代方案?

A:主要有三类选择:一是继续使用现有Llama模型或其分支项目,如llama.cpp、ik_llama.cpp、OpenLLaMA等;二是切换至其他开源大语言模型,如Mistral、DeepSeek或阿里巴巴的Qwen;三是迁移至OpenAI、Anthropic等主流AI服务商的专有API。不过迁移成本较高,涉及API重写、训练数据适配和工作流重建等工作。

来源:The New Stack

0赞

好文章,需要你的鼓励

2026

05/13

08:06

分享

点赞

邮件订阅