DeepSeek 在一月份推出的 R-1 AI 模型显然打乱了 AI 市场的秩序。美国科技股市值蒸发超过 1 万亿美元,OpenAI、Alphabet 和 Meta 等前沿模型开发商都被这家中国初创公司打了个措手不及。DeepSeek 声称其推理模型性能可与 OpenAI 的 o1 产品相媲美,运行速度提高一倍,但成本仅为后者的 10%。
尽管该模型的开发存在争议,但 DeepSeek 大大加速了 AI 模型的商品化进程。这是个好消息,将推动创新,特别是对企业软件开发商而言。对于 CIO 来说,这意味着有更多供应商的 AI 产品可供考虑和评估,同时也降低了企业内部构建 AI 能力的门槛。
更便宜、更好、更快
过去 50 年的数字创新史就是系统越来越强大而成本越来越低的历史。摩尔定律在这段时期一直适用于微处理器,类似的模式也可以在计算革命的其他核心要素中观察到。在过去十年中,AI 似乎也遵循这一趋势,自 2022 年 ChatGPT 推出以来,发展速度更是急剧加快。据科技企业家和 AI 专家 Azeem Azhar 称,OpenAI 于 2023 年 3 月推出的 GPT-4 运行成本为每百万 token 36 美元,而 DeepSeek 以 0.14 美元就能提供类似性能——便宜 250 倍。
开源 AI 模型的激增——目前 Hugging Face 平台上列出了超过 100 万个模型——正在推动创新,特别是在应用端。DeepSeek 只是将这一趋势提升了一个数量级。我们可以预期,今年的关注重点将从模型开发者转移到那些利用这种低成本环境进行创新的商业应用开发者身上。
与微软的 PC 操作系统、谷歌搜索和 Meta 的社交媒体不同,看起来在短期内不会有任何单一模型开发者能够主导 AI 的发展方向。IDPartner Systems 联合创始人兼 CEO Rod Boothby 认为,OpenAI 作为目前主导的模型开发者,仅提供单元创新,而微软、Meta 和谷歌则具有利用网络效应使所有系统用户受益的系统创新。软件开发者和用户从稳定且广泛使用的 PC 操作系统中受益;网站运营者可以针对主导搜索引擎优化他们的网站;谷歌、Instagram 和 Facebook 用户可以连接并关注数百万其他用户。Boothby 表示:"除非 OpenAI 创建一个人们可以互动和获利的平台,否则它可能仍然只是众多可轻易替代的模型供应商之一。"
为企业构建
随着模型成本下降,AI 的价值向应用层迁移,企业将在业务解决方案方面有更多选择,无论是来自第三方还是内部开发。对于能够获得适当资源的 CIO 来说,内部开发应用现在是一个更现实的选择。在企业特有的复杂业务流程背景下,这变得越来越具有吸引力。随着运行模型的成本降至接近零,投资回报率的计算发生了巨大变化。根据 Forrester Research 的研究,在 PC 上本地运行像 DeepSeek 这样的超高效模型的能力开启了边缘智能的新时代,企业可以在整个组织中部署这种能力。
数字转型专家 Keystone 的 CoreAI 总裁 Devesh Mishra 表示:"AI 的真正价值不仅在于构建更大的模型,还在于在其基础上创新并高效实施。将基础模型的进步与深厚的业务和运营专业知识相结合的公司将引领下一阶段的 AI 驱动的投资回报。"
对行业垂直领域及其特定问题和需求的深入理解将定义许多供应商的成功,因为他们将越来越多地与内部开发团队竞争。AI 改变许多业务流程的潜力使许多现成的解决方案变得无关紧要。
根据 Azhar 的观点,这对 AI 代理来说尤其如此,他认为当像 DeepSeek 这样的系统每秒可以处理 250 个 token 时,实时 AI 就成为了现实可能。在这种环境下,AI 代理之间的通信速度可以比人类快 50 到 100 倍。巨大的效率和成本节省潜力将给 CIO 带来更大的压力和风险,要求他们在所有业务功能中以及与供应商和客户的合作中评估这项技术。Gartner 的 AI 路线图是一个有用的起点,因为它将技术、人力、数据和战略因素结合在一起,帮助领导者开始这个过程。
十多年前,风险投资公司 Andreessen Horowitz 的合伙人、Netscape 联合创始人 Marc Andreessen 在数字转型的背景下说软件正在吞噬世界。现在许多业务流程和交易都由软件处理(通常在后台进行)这一事实支持了他的假设。然而,进展比许多人预测的要慢,包括 Andreessen 在内。过去几年 AI 在不同形式下的崛起,加上 DeepSeek 的 R-1 模型的戏剧性发布,预示着这一旅程将发生重大转变。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。