作者|高飞
多数人仍然习惯用传统的“两层思维”生态架构来思考大模型:系统基座在下面,面向用户的应用在上面,二者泾渭分明。
历史上看,这种二分法是对的:
1. DOS 操作系统面世时,没有可执行的 “.com” 或 “.exe” 程序,用户根本无从交互;
2. Windows 问世时,也没有人会拿一个操作系统单独“空跑”。哪怕是当年经典的“纸牌”和“扫雷”,也是微软为了让大众理解并熟悉图形界面,不得不自己编写的小应用;
3. iOS 让智能手机成为一种基础设施,但首批吸引用户使用的,还是纸飞机、拍照,甚至打电话这些关键应用;
4. 云计算概念提出来后,人们谈论的都是基于云的 SaaS 和各种网站,用不了多久就变成“这家公司用 AWS 跑后台”这样的陈述。云计算本身并没有变成一个直接面向大众的入口。
但是,AI 之所以是一场技术革命,就意味着它会颠覆我们已有的常识。我认为,两层架构在这个时代已经失效。
举个例子:OpenAI 的 ChatGPT 从一开始发布时,就既是一个模型,又是一个面向大众的消费级应用。
你不需要再去下载任何“子程序”才能让 ChatGPT 跑起来;只需要在对话框输入文字(提示工程,Prompt Engineering),它就能执行推理或生成内容。它甚至创造了最快达到 1 亿月活用户的新纪录。这是一个毫无争议的应用。
但它同时也是一种模型,OpenAI提供了 API 调用,让无数应用可以基于它构建。
当我们说 “DeepSeek” 时,既可能指一种在 LMarena、AIME 榜单上排名靠前的前沿推理模型,也可以指一款曾登顶中美等多个国家 iOS 应用商店的 App。
所以,下次再有人问:“我们该投大语言模型还是应用层?”也许可以告诉他,这不是一个非此即彼的问题。在这个领域里,模型就是应用,应用也就是模型。
如果你在做模型,你的用户并不需要了解多少编译、链接或 SDK 之类的东西,就能够通过自然语言提示来使用它。
反过来,如果你在做 AI 应用,其实最终还是在向用户交付一项“大模型”能力,无论你使用的是提示工程、强化学习、工作流、Agent,还是别的“套壳”手段,底层都还是那台贯通一切的“大脑”。
模型与应用的边界正在塌陷,用户甚至不知道,或者并不在意自己是在“跑模型”还是在“用程序”。
但是,除了投资规模,做应用也并不比做基座模型廉价,因为在这个时代,切换一个模型底座并不比换辆车开更难。几乎你使用的所有 AI 应用,都提供了在后台切换模型的设置选项。
你能在云计算时代想象这些吗?一个网站提供了切换不同云主机访问?还记得适配安卓、iOS 等不同系统、不同尺寸的手机有多难吗?
只不过,应用开发者还是需要一点戒备。你的产品最好不要在“智能演化”的延长线上。就像山姆·奥特曼(Sam Altman)所说:如果基座模型变得更好,你的应用也应该同步变得更好,而不是被彻底替代、不再被需要。
好文章,需要你的鼓励
芬兰阿尔托大学研究团队开发出革命性光学计算方法,利用单束光线实现复杂张量运算。该技术将数字信息编码到光波的振幅和相位中,通过光波相互作用自动完成深度学习所需的矩阵和张量乘法运算。与传统GPU逐步处理不同,光学系统可同时并行执行所有计算操作,运算速度达到光速级别。研究显示该方法具有被动处理、低功耗等优势,预计3-5年内可集成到现有硬件平台,为AI计算带来重大突破。
新加坡科技设计大学研究团队发现,通过控制大型语言模型的"思考语言"可显著提升输出多样性。研究显示,AI用非英语语言思考时能产生更多样化的答案,且距离英语越远的语言效果越好。混合多种语言思考的策略表现最佳,不仅提升创意输出,还增强了文化多元化表达能力,为解决AI输出同质化问题提供了简单有效的方案。
科学家成功将传统公里级粒子加速器缩小至房间大小,并实现商业化。TAU Systems公司开发的激光驱动尾场加速器利用超强激光脉冲产生等离子体,将电子加速至相对论速度。该设备首先用于航天电子设备的辐射测试,能量范围60-100兆电子伏特,成本约1000万美元起。未来还可应用于医疗成像、芯片检测和X射线光刻等领域,有望大幅降低粒子加速器的使用门槛。
浙江大学研究团队开发了PhyRPR三阶段视频生成系统,解决AI视频中物理规律违背问题。该方法将物理理解与视觉生成分离处理:首先用大型语言模型进行物理推理和关键帧生成,然后规划连续运动轨迹,最后通过运动感知技术精化视觉效果。实验证明该方法在物理一致性和视觉质量方面均优于现有技术。