作者|高飞
多数人仍然习惯用传统的“两层思维”生态架构来思考大模型:系统基座在下面,面向用户的应用在上面,二者泾渭分明。
历史上看,这种二分法是对的:
1. DOS 操作系统面世时,没有可执行的 “.com” 或 “.exe” 程序,用户根本无从交互;
2. Windows 问世时,也没有人会拿一个操作系统单独“空跑”。哪怕是当年经典的“纸牌”和“扫雷”,也是微软为了让大众理解并熟悉图形界面,不得不自己编写的小应用;
3. iOS 让智能手机成为一种基础设施,但首批吸引用户使用的,还是纸飞机、拍照,甚至打电话这些关键应用;
4. 云计算概念提出来后,人们谈论的都是基于云的 SaaS 和各种网站,用不了多久就变成“这家公司用 AWS 跑后台”这样的陈述。云计算本身并没有变成一个直接面向大众的入口。
但是,AI 之所以是一场技术革命,就意味着它会颠覆我们已有的常识。我认为,两层架构在这个时代已经失效。
举个例子:OpenAI 的 ChatGPT 从一开始发布时,就既是一个模型,又是一个面向大众的消费级应用。
你不需要再去下载任何“子程序”才能让 ChatGPT 跑起来;只需要在对话框输入文字(提示工程,Prompt Engineering),它就能执行推理或生成内容。它甚至创造了最快达到 1 亿月活用户的新纪录。这是一个毫无争议的应用。
但它同时也是一种模型,OpenAI提供了 API 调用,让无数应用可以基于它构建。
当我们说 “DeepSeek” 时,既可能指一种在 LMarena、AIME 榜单上排名靠前的前沿推理模型,也可以指一款曾登顶中美等多个国家 iOS 应用商店的 App。
所以,下次再有人问:“我们该投大语言模型还是应用层?”也许可以告诉他,这不是一个非此即彼的问题。在这个领域里,模型就是应用,应用也就是模型。
如果你在做模型,你的用户并不需要了解多少编译、链接或 SDK 之类的东西,就能够通过自然语言提示来使用它。
反过来,如果你在做 AI 应用,其实最终还是在向用户交付一项“大模型”能力,无论你使用的是提示工程、强化学习、工作流、Agent,还是别的“套壳”手段,底层都还是那台贯通一切的“大脑”。
模型与应用的边界正在塌陷,用户甚至不知道,或者并不在意自己是在“跑模型”还是在“用程序”。
但是,除了投资规模,做应用也并不比做基座模型廉价,因为在这个时代,切换一个模型底座并不比换辆车开更难。几乎你使用的所有 AI 应用,都提供了在后台切换模型的设置选项。
你能在云计算时代想象这些吗?一个网站提供了切换不同云主机访问?还记得适配安卓、iOS 等不同系统、不同尺寸的手机有多难吗?
只不过,应用开发者还是需要一点戒备。你的产品最好不要在“智能演化”的延长线上。就像山姆·奥特曼(Sam Altman)所说:如果基座模型变得更好,你的应用也应该同步变得更好,而不是被彻底替代、不再被需要。
好文章,需要你的鼓励
在Meta Connect大会上,Meta展示了新一代Ray-Ban智能眼镜的硬件实力,配备神经腕带支持手势控制,电池续航翻倍,摄像头性能提升。然而AI演示却频频失败,包括Live AI烹饪指导、WhatsApp通话和实时翻译功能都出现问题。尽管Meta在智能眼镜硬件方面表现出色,但AI软件仍远未达到扎克伯格提出的"超级智能"目标。文章建议Meta考虑开放AI生态,允许用户选择其他AI服务商,这可能帮助Meta在AI硬件市场获得优势。
DeepSeek-AI团队通过强化学习技术开发出DeepSeek-R1系列推理模型,无需人工标注即可自主学习复杂推理。该模型在数学、编程等领域表现卓越,在AIME 2024中达到79.8%准确率,编程能力超越96%人类选手。研究团队还通过知识蒸馏技术将推理能力传递给小模型,使7B参数模型也能超越GPT-4o。这项突破为AI推理能力发展开辟新路径。
英伟达同意以50亿美元收购英特尔股份,双方将合作开发多代数据中心和PC产品。英伟达将以每股23.28美元的价格收购约4%的英特尔股份,成为其最大股东之一。两家公司将通过NVLink接口整合各自架构,实现CPU和GPU间的高速数据传输。英特尔将为英伟达AI平台定制x86处理器,并开发集成RTX GPU的x86系统级芯片,用于消费级PC市场。
微软研究院推出rStar-Math系统,通过创新的"深度思考"训练方法,让小型AI模型在数学推理能力上达到甚至超越OpenAI o1水平。该系统采用代码验证、过程偏好模型和四轮自进化训练,将70亿参数模型的数学能力从58.8%提升至90.0%,在美国数学奥林匹克竞赛中达到前20%水平,证明了精巧方法比模型规模更重要,为AI发展开辟了新路径。