作者|高飞
多数人仍然习惯用传统的“两层思维”生态架构来思考大模型:系统基座在下面,面向用户的应用在上面,二者泾渭分明。
历史上看,这种二分法是对的:
1. DOS 操作系统面世时,没有可执行的 “.com” 或 “.exe” 程序,用户根本无从交互;
2. Windows 问世时,也没有人会拿一个操作系统单独“空跑”。哪怕是当年经典的“纸牌”和“扫雷”,也是微软为了让大众理解并熟悉图形界面,不得不自己编写的小应用;
3. iOS 让智能手机成为一种基础设施,但首批吸引用户使用的,还是纸飞机、拍照,甚至打电话这些关键应用;
4. 云计算概念提出来后,人们谈论的都是基于云的 SaaS 和各种网站,用不了多久就变成“这家公司用 AWS 跑后台”这样的陈述。云计算本身并没有变成一个直接面向大众的入口。
但是,AI 之所以是一场技术革命,就意味着它会颠覆我们已有的常识。我认为,两层架构在这个时代已经失效。
举个例子:OpenAI 的 ChatGPT 从一开始发布时,就既是一个模型,又是一个面向大众的消费级应用。
你不需要再去下载任何“子程序”才能让 ChatGPT 跑起来;只需要在对话框输入文字(提示工程,Prompt Engineering),它就能执行推理或生成内容。它甚至创造了最快达到 1 亿月活用户的新纪录。这是一个毫无争议的应用。
但它同时也是一种模型,OpenAI提供了 API 调用,让无数应用可以基于它构建。
当我们说 “DeepSeek” 时,既可能指一种在 LMarena、AIME 榜单上排名靠前的前沿推理模型,也可以指一款曾登顶中美等多个国家 iOS 应用商店的 App。
所以,下次再有人问:“我们该投大语言模型还是应用层?”也许可以告诉他,这不是一个非此即彼的问题。在这个领域里,模型就是应用,应用也就是模型。
如果你在做模型,你的用户并不需要了解多少编译、链接或 SDK 之类的东西,就能够通过自然语言提示来使用它。
反过来,如果你在做 AI 应用,其实最终还是在向用户交付一项“大模型”能力,无论你使用的是提示工程、强化学习、工作流、Agent,还是别的“套壳”手段,底层都还是那台贯通一切的“大脑”。
模型与应用的边界正在塌陷,用户甚至不知道,或者并不在意自己是在“跑模型”还是在“用程序”。
但是,除了投资规模,做应用也并不比做基座模型廉价,因为在这个时代,切换一个模型底座并不比换辆车开更难。几乎你使用的所有 AI 应用,都提供了在后台切换模型的设置选项。
你能在云计算时代想象这些吗?一个网站提供了切换不同云主机访问?还记得适配安卓、iOS 等不同系统、不同尺寸的手机有多难吗?
只不过,应用开发者还是需要一点戒备。你的产品最好不要在“智能演化”的延长线上。就像山姆·奥特曼(Sam Altman)所说:如果基座模型变得更好,你的应用也应该同步变得更好,而不是被彻底替代、不再被需要。
好文章,需要你的鼓励
预训练和强化学习就能AGI,我的朋友已经不涂防晒霜,Anthropic研究员Douglas:模型对全球GDP的影响类似中国崛起
AI正在彻底改写创业规则:YC最新数据显示,10人团队12个月达成千万美元营收已成常态,"氛围编程"让技术不再是瓶颈,而创始人能否深度理解客户需求成为成败关键。当6人团队就能创造八位数收入时,我们看到的不仅是速度革命,更是对公司本质的重新定义。
这项由阿伯丁大学和格勒诺布尔阿尔卑斯大学研究者联合完成的研究揭示了大语言模型处理日期时的关键问题:现代分词器常将日期分割成无意义的碎片,如"20250312"被切分为"202"、"503"、"12",这严重影响时间推理能力。研究提出了日期碎片化率指标,创建了DATEAUGBENCH测试集,并通过内部机制分析发现,大型模型能在早期层快速"修复"碎片化日期,但其推理路径与人类理解方式显著不同,这解释了模型在处理非标准日期时的准确率下降。
MUG-Eval是KAIST和Trillion Labs联合开发的创新多语言评估框架,通过让语言模型在目标语言中进行自我对话来评估其生成能力。该方法独特之处在于不依赖语言特定工具或人工标注数据,而是通过任务完成率间接衡量语言能力。研究团队测试了8种顶级语言模型在30种语言上的表现,发现其结果与传统评估方法高度一致(相关系数>0.75)。MUG-Eval揭示了模型在低资源语言上表现显著落后,并发现英语并非评估低资源语言的最佳替代。该框架理论上支持2,102种语言,为真正包容的AI评估提供了新途径。