作者|高飞
多数人仍然习惯用传统的“两层思维”生态架构来思考大模型:系统基座在下面,面向用户的应用在上面,二者泾渭分明。
历史上看,这种二分法是对的:
1. DOS 操作系统面世时,没有可执行的 “.com” 或 “.exe” 程序,用户根本无从交互;
2. Windows 问世时,也没有人会拿一个操作系统单独“空跑”。哪怕是当年经典的“纸牌”和“扫雷”,也是微软为了让大众理解并熟悉图形界面,不得不自己编写的小应用;
3. iOS 让智能手机成为一种基础设施,但首批吸引用户使用的,还是纸飞机、拍照,甚至打电话这些关键应用;
4. 云计算概念提出来后,人们谈论的都是基于云的 SaaS 和各种网站,用不了多久就变成“这家公司用 AWS 跑后台”这样的陈述。云计算本身并没有变成一个直接面向大众的入口。
但是,AI 之所以是一场技术革命,就意味着它会颠覆我们已有的常识。我认为,两层架构在这个时代已经失效。
举个例子:OpenAI 的 ChatGPT 从一开始发布时,就既是一个模型,又是一个面向大众的消费级应用。
你不需要再去下载任何“子程序”才能让 ChatGPT 跑起来;只需要在对话框输入文字(提示工程,Prompt Engineering),它就能执行推理或生成内容。它甚至创造了最快达到 1 亿月活用户的新纪录。这是一个毫无争议的应用。
但它同时也是一种模型,OpenAI提供了 API 调用,让无数应用可以基于它构建。
当我们说 “DeepSeek” 时,既可能指一种在 LMarena、AIME 榜单上排名靠前的前沿推理模型,也可以指一款曾登顶中美等多个国家 iOS 应用商店的 App。
所以,下次再有人问:“我们该投大语言模型还是应用层?”也许可以告诉他,这不是一个非此即彼的问题。在这个领域里,模型就是应用,应用也就是模型。
如果你在做模型,你的用户并不需要了解多少编译、链接或 SDK 之类的东西,就能够通过自然语言提示来使用它。
反过来,如果你在做 AI 应用,其实最终还是在向用户交付一项“大模型”能力,无论你使用的是提示工程、强化学习、工作流、Agent,还是别的“套壳”手段,底层都还是那台贯通一切的“大脑”。
模型与应用的边界正在塌陷,用户甚至不知道,或者并不在意自己是在“跑模型”还是在“用程序”。
但是,除了投资规模,做应用也并不比做基座模型廉价,因为在这个时代,切换一个模型底座并不比换辆车开更难。几乎你使用的所有 AI 应用,都提供了在后台切换模型的设置选项。
你能在云计算时代想象这些吗?一个网站提供了切换不同云主机访问?还记得适配安卓、iOS 等不同系统、不同尺寸的手机有多难吗?
只不过,应用开发者还是需要一点戒备。你的产品最好不要在“智能演化”的延长线上。就像山姆·奥特曼(Sam Altman)所说:如果基座模型变得更好,你的应用也应该同步变得更好,而不是被彻底替代、不再被需要。
好文章,需要你的鼓励
亚马逊云科技深知AI安全的重要性,并为其安全防护做足了准备。因为安全一直是亚马逊云科技的第一要务。
Rabbit 公司发布了一款"通用 Android 代理",能够缓慢控制平板电脑上的应用程序,实现了早期承诺的 R1 设备功能。该代理基于去年推出的 LAM Playground 开发,可执行各种任务,如查找视频、制作食谱和玩游戏。尽管仍在开发中,但 Rabbit 承诺将在未来几周内分享更多关于其跨平台多代理系统的信息。
一项调查显示,75% 的知识型员工正在使用生成式 AI,其中 46% 表示即使公司禁止也不会停止使用。这对企业高管带来严峻挑战:既要防范未经授权使用 AI 带来的安全风险,又要适应员工对新工作方式的坚持。企业需要及时制定相关政策和策略,以应对生成式 AI 带来的巨大变革。
DeepSeek-R1 的出现引发了行业的担忧,认为先进的推理可以在更少的基础设施下实现。然而,Together AI 表示,DeepSeek 和开源推理的兴起实际上增加了基础设施的需求。该公司最近宣布完成 3.05 亿美元的 B 轮融资,旨在简化企业对开源大型语言模型的使用,并扩展其平台以支持推理集群和自主 AI 能力。DeepSeek-R1 的高需求推动了基础设施的增长,Together AI 还通过收购 CodeSandbox 来支持自主 AI 工作负载。