Meta最近宣布推出全新专有大语言模型Muse Spark,这一举措实际上意味着该公司已将Llama的开发工作搁置一旁。
回顾过去,2023年Meta发布Llama 2.0时,曾高调宣传其开源属性,赢得了大批开发者的好感。2024年10月,Meta创始人兼CEO马克·扎克伯格更是公开表示"开源AI是未来的方向"。去年3月,该公司还专门发布新闻稿,庆祝Llama下载量突破10亿次。
然而,时过境迁。
Meta超级智能实验室是2025年新成立的部门,由扎克伯格亲自招募Scale AI的亚历山大·王来主导Meta的AI战略,Muse Spark正是由该实验室开发。据悉,扎克伯格对Llama在性能上落后于ChatGPT和Claude深感不满,因此决定以全新的基础设施、架构和数据管道从零构建Muse Spark,并不惜重金从竞争对手处挖角AI人才。Muse Spark与Llama在技术上毫无关联。
Meta目前尚未就降低Llama优先级一事作出官方回应。当The New Stack就此向Meta求证时,对方也未予答复。不过,从Meta公开表态来看,其声称"现有Llama模型将继续以开源形式提供",但这仅意味着已有模型仍可使用,并不涉及未来的开发计划。AI社区普遍预期,Llama今后只会获得小幅更新和基础维护,不会再享有Muse Spark那样的大规模前沿投资。
Llama与Muse Spark之间不存在迁移路径,因为两者在部署模式上存在根本性差异。Llama提供可下载的开放权重,支持本地部署和微调;而Muse Spark仅支持云端部署,不提供可下载权重,不支持自托管,目前也仅开放私有API预览访问。即便Meta日后履行承诺、开源部分新模型,Llama用户如何顺利迁移至新平台,仍是一个难以回答的问题。
AI领域知名人士吴恩达在其通讯《The Batch》中写道:"此次专有发布引发了开发者的广泛担忧,因为许多人都在基于开放权重的Llama模型构建项目。"与此同时,他也指出,Meta的战略转型或许有助于其"在商业客户市场上与OpenAI、谷歌和Anthropic一较高下。然而,Meta放弃美国开放权重领军者地位,对开发者社区而言是一大损失"。
目前仍有大量用户在使用Llama。一年前,Meta公布的数据显示,Llama下载量已达12亿次。尽管当时就有开发者认为Meta对Llama的投入力度已不足以与主流前沿模型抗衡,仍有数千家企业及无数个人开发者坚持在使用。面对这一变局,他们有哪些选择?
Llama开发者的可用选项
继续使用现有Llama模型,该模型仍可在主流云服务商平台上获取,但其性能与前沿竞品的差距将日益扩大。
切换至Mistral、DeepSeek或阿里巴巴Qwen等竞争性开源模型。
迁移至主流AI服务商的专有API。事实上,Meta内部工程师早在Muse Spark推出之前便已转向Claude Sonnet。
需要指出的是,迁移成本相当可观,涉及重写特定厂商API、适配专有训练数据,以及重新整合定制工具与工作流程,既不简单,也不便宜。
Llama分支项目成为重要出路
对于众多Llama用户而言,使用各类Llama分支项目或许是最为便捷的过渡方式。其中最具代表性的当属llama.cpp,这是一款广受欢迎的C++推理引擎,支持本地运行Llama模型,并兼容多种大语言模型,远不止Meta的Llama系列。
从llama.cpp衍生出了多个重要分支:ik_llama.cpp主打性能优化,宣称在CPU及GPU/CPU混合运算方面的表现优于llama.cpp;Rkllama则是面向嵌入式系统的Rockchip NPU分支,将llama.cpp与Rockchip NPU加速能力整合,适配RK3588等芯片,兼容几乎所有标准llama.cpp模型;llama-rs是基于Rust语言的实现版本,以"超快本地AI分支"为卖点。
此外,OpenLLaMA是Meta原始LLaMA模型的Apache授权开源复刻版本,提供3B、7B和13B三种参数规模,均基于1万亿Token训练完成,并附带PyTorch和JAX的模型权重。
Meta或许将从这次战略转型中获益,但广大Llama用户不得不自寻出路。这条路,并不好走。
Q&A
Q1:Muse Spark和Llama有什么本质区别?
A:两者在部署模式上存在根本差异。Llama提供可下载的开放权重,支持本地部署和自定义微调;而Muse Spark是纯云端产品,不提供可下载权重,不支持自托管,目前也仅开放私有API预览访问。此外,Muse Spark完全基于全新基础设施和架构构建,与Llama没有任何技术继承关系,两者之间也不存在官方迁移路径。
Q2:Llama现在还能继续用吗?
A:可以继续使用,Meta表示现有Llama模型将继续以开源形式提供,主流云服务商平台上也仍可获取。但需注意,Llama今后预计只会获得小幅更新和基础维护,不会再有大规模前沿技术投入,其性能与ChatGPT、Claude等主流模型的差距将持续扩大。
Q3:Llama开发者有哪些替代方案?
A:主要有三类选择:一是继续使用现有Llama模型或其分支项目,如llama.cpp、ik_llama.cpp、OpenLLaMA等;二是切换至其他开源大语言模型,如Mistral、DeepSeek或阿里巴巴的Qwen;三是迁移至OpenAI、Anthropic等主流AI服务商的专有API。不过迁移成本较高,涉及API重写、训练数据适配和工作流重建等工作。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。