2024年,是人工智能发展史无法忽视的一年。
这一年,在经历了2022年ChatGPT这一“超级应用”问世,经历了2023年的“百模大战”之后,2024年的模型世界每天都有新故事,从多模态,到语音助手;从开源看齐闭源,到推理计算直追训练扩展。每个月甚至每个星期,这个时代都在发生变化。
换句话说,地球在物理学科有“重力加速度”,在计算机学科又有了新的 “AI加速度”。
在这样的“AI加速度”下,大模型出现在公众视野其实才两年时间,但已经几乎完全改变了产业逻辑。
基于此,11月16日,由PEC China、至顶科技、软积木主办的2024 AI创新者大会暨PEC·提示工程峰会上,举行了一场《预见2025》的圆桌对话,邀请了中国信通院人工智能研究所所长魏凯,硅基流动创始人袁进辉,钉钉副总裁、解决方案&战略客户部总经理邱达,邮储银行RPA+AI创新实验室(总行级)负责人潘淳,智谱AI首席生态官刘江的共同参与,至顶科技CEO兼总编辑高飞担任主持。
几位专家齐聚一堂,分享在他们眼中的2024,并一起预见“AI加速度”下的2025。
ChatGPT两周年,产业还在加速
高飞:先请问魏所,从您个人角度来看,过去一年,AI发展速度如何,比起第一年,是更快还是更慢,印象中最深刻的事件是什么?
魏凯:肯定是更快,不断在加速。经常有人说,在AI界,地上一年、天上一天。技术进步速度、应用发展速度都在刷新。
我印象最深刻是有一种扑面而来的加速感,每隔几天有新模型出现,每隔几天有新应用冒出来,所以整体上是一个不断压缩时间、加快节奏的过程。当然,这里面空间很大,未来方向也越来越清晰,也坚定了大家的投入信心。
对于创业者来说,黄金时代大幕正在拉开。OpenAI创始人Sam Altman曾说过,一个人的公司已经有了,公司法已经允许大家创立一人公司了,所以,一个人的独角兽公司可能会很快出现。因为你不需要会编程,不需要雇很多员工,有若干个大模型为你服务。所以,创业者的黄金时代到来了!
中国信通院人工智能研究所所长魏凯
高飞:有人讲AI产业变化速度很快,以至于大家都有点跟不上节奏,智谱作为国内基础模型的代表,感觉到今年主旋律是什么?
刘江:主旋律是落地、科研突破。智谱自2020年开始做大模型,比较早期做大模型进入大众视野,总体来讲是搞科研、发论文、做模型。
当然,模型确实也发展非常快,如果说今年上半年OpenAI还是偏引领,方向是多模态,比如Sora等都是这个方向。到了下半年,GPT-o1又出现。这三个模型,是三条技术路线。
智谱AI首席生态官刘江
模型落地,为何总有分歧?
高飞:说到落地,钉钉是非常接地气且落地的企业。现在大家谈大模型应用有两种角度,第一种角度说AGI快实现了;第二种说法是,AI好像还没什么用,还没看到在生产环境中能发挥多大作用。这两种观点非常撕裂,怎么看待这个问题?
邱达:逻辑上来讲,为什么会存在分歧,这和AGI的本质、概念、定义还不够清晰,是有强关联的,这是我的第一观点。
第二观点,到底什么可以称之为真正意义上的AGI,可能要有一个标志性特征,模型可能真的要具备自我迭代和进化的能力,在非人为干预的情况下。
这可能会引发争执。所以,怎么在又符合安全、又有和人类对齐的方向实现进化,可能是一个观测点。
所以,对AGI能来到,我是保持比较谨慎的、乐观的态度。我也会非常实际去观测,模型世界里是否出现了自我进化的点,或者出现早期成功的标志性事情。
钉钉副总裁、解决方案&战略客户部总经理邱达
高飞:有一句话在金融领域叫Money never sleeps,金钱永不眠。看来以后是AI never sleeps,AI也要永不眠。
接下来想问硅基流动。硅基流动致力于提升模型开发效率,推动产业链和模型接轨,当时为什么瞄准这个方向,是要解决这个产业链的什么痛点?
袁进辉:过去一年,AI发展非常快,今天无论是闭源模型、开源模型,能力已经非常强大,基本上可以认为,我们解决了AI模型的有无问题,最重要是落地过程。
在这个过程中我们判断,需要更多的人参与到这波浪潮里来,不仅是专家或科学家的事,还要解决基础设施建设的问题,比如修一些路,让大家都能开车,让大家不用专门去研究GPU,不用去研究AI芯片,或者不用研究模型选择,以及构建应用时不用重复开发一些基础组件。
比如云、RAG系统,这些通用部件都可以直接当成水龙头一样打开就能用,我们希望解决AI技术普惠化的过程,变成在场景里的产品经理,我们即使不是工程师,如果有想使用AI能力的愿望,或者有这种idea,就能够把idea变成现实,这里面要解决很多基础设施的搭建。
所以,我们主要想解决的问题是,把算力、模型、基础架构搭好,这样大家开发AI应用时,只关心自己业务就好。
硅基流动创始人袁进辉
行业渗透,路线如何选择?
高飞:接下来提问邮储银行。比起当年的云计算,你觉得现在AI和行业之间的渗透率如何,行业内的人,特别是金融行业的技术决策者,对AI在金融行业的总体态度是怎样的?
潘淳:我先说一下对ChatGPT的感受,因为我还有一个身份是,微软技术俱乐部的主席,所以我从2022年11月ChatGPT刚发布时就开始接触,也趁机建了国内第一波AIGC生态社区,接触到大量场景。
大概在2023年3-6月,有一个超速发展的机会。2023年底,各种大模型出现,现在国内有260个模型。再到今年6月份,有两个重要产品出现:一个是Sora,文生视频突然火起来。第二个是Claude 3.5。现在,应用生态开始向上爬坡。
回到金融领域,银行有一个非常微妙的变化。银行的特点是,网络分为两块,办公网、生产网,生产网绝对是物理隔离,调不了API,只能自己去建。所以这导致,银行如果要在AI分析有所作为,必须要自建。
从应用的角度看,是从无到有、从有到优。从无到有,是有无模型的问题,自己去弄硬件、去弄模型。第二部更重要的是,应用生态。
邮储银行RPA+AI创新实验室(总行级)负责人潘淳
高飞:关于AI应用,想请问钉钉。目前围绕AI应用落地有两种方式,一种是在原有产品上做转型,叠加AI的能力;还有一种是AI原生。你觉得未来占主流的会是哪一种,是转型路线的应用占主流,还是从0到1的原生方式要颠覆一切?
邱达:我分享一个思考方式。我们做产品的核心是为了解决问题,正如刚才各位专家提到的关键词“落地”。可以将这个问题拆解一下,对这两种形态(AI原生和叠加AI)做一些信息上的对比分析。
首先,钉钉产品中有一个观点,叫“实现最小闭环功能的能力”,类似于MVP(最小可行产品)。如果这个MVP的核心逻辑可以通过穷举或者固定规则完成,那么大概率适合走“叠加AI”的路线。
举个例子,在服务制造业客户时,比如涉及工艺、配方、参数的场景,目前还是以逻辑为主导。而制造业的一个特点是容错率极低甚至不能容错。比如,如果AI直接接管配方调整,每个批次的产出可能需要精确到0.01,但一旦出错,就会导致整条产线的问题。
在这种情况下,AI更适合作为辅助工具,提供配方优化建议,但最终的决策仍然需要由人或传统逻辑系统来完成。
所以,在这种场景下:第一,容错率极低;第二,业务逻辑相对清晰。这属于“叠加AI”的应用场景。
另一方面,如果产品的核心是传统逻辑系统难以实现的功能,比如情绪价值,这是大模型非常擅长的领域。
以前的逻辑系统几乎无法提供情绪价值,但现在的生成式AI或陪伴式AI可以实现这一点,比如通过生成内容与用户互动。
这类场景中,会产生新的变量,因此更适合“AI原生”的路径。
举三个更适合“AI原生”路径的例子:
第一,陪伴式/有情绪价值的产品,我们一定要优先考虑大模型的应用。
第二,智力生成类应用,比如生成视频、生成音乐等,这部分很多时候已经远超人类了,或者远超逻辑系统了,完全可以“AI原生”。
第三,未来在物理世界,端到端的智能介入和迭代产品,比如具身智能。
高飞:谢谢,回答的特别清晰,特别是情绪价值,“我虐AI千百遍,它待我如初恋”,怎么批评它,它都承认错误。
我们既然说预见2025,硅基流动作为全球化布局的先锋,是如何考虑全球布局的,现在有很多AI应用公司在布局海外,您有什么建议?
袁进辉:在技术研发阶段,过去一段时间,硅谷比国内节奏要早几个月或者半年。所以,从应用的角度,多观察国外,就像所谓的时光机理论一样,能够预测中国几个月之后的大致情况,这也是硅基流动很关注海外资料的原因。
从做产品和商业化角度,我们也认同出海是一个大趋势,也是一个好机会。这里面有种种原因,比如说技术发展节奏、市场成熟程度、用户付费意愿等等。
总体来看,海外更看重产品的竞争力,产品是否真的被用户喜欢才是最重要的。
而在国内,可能噪音多一些,比如一个刚开始可能不是那么好的产品,也有可能把大家的注意力吸引过来,这里面涉及到国内流量的投放机制等等,一定要花钱去买到这个流量。
布局出海,一些原生的、自下而上的产品,因为其竞争优势,获得了一些市场群体的喜欢,用户会把你投票上来,形成一种自发传播。所以,出海的时候蛮重视这点,比如Hacker News会收集这些用户或KOL的反馈。
还有一个不同点,海外Web流量非常发达,主要以谷歌的索引为主。做好所谓的ICU,能有很多很多自来水流量,如果谷歌觉得是一个非常好的内容,会利用生态,会开始索引,就会产生流量。
相比之下,国内的精品Web内容几乎枯竭,好的内容都在APP里,然而APP已经非常分裂,在几个巨头玩家手里,“后浪们”要想获得注意力,必须在巨头玩家手里买流量。
预见2025
高飞:在我们外界看来,做前沿基础模型的公司,或多或少都有一些使命感。请请您谈谈,在智谱内部,大家谈得最多的一个目标或者愿景是什么?
至顶科技CEO兼总编辑高飞
刘江:我刚才回答了两个方向:技术突破/科研突破、落地。2025年也还是延续这两个节奏。
沿着前面的问题来谈。我是云计算最早的鼓吹手之一,因为我大概在2008年、2009年就在说云计算。所以,相比较来讲,大模型这一波落地,确实比之前很多技术要快很多,最明显是比如OpenAI今年讲年化收入能达到40亿美元左右。
ChatGPT算是它商业化的起点,两年能达到40亿美元的收入,在之前的云计算时代是达不到的,可能要花更长时间。
我也在思考大模型到底跟以前的技术有什么不一样,其实答案是非常强的通用性。大家想,现在大模型就要开放心态,思路要开拓,不要想“我是不是只做AI原生”,要反过来想问题,而是“要解决什么问题”、“大模型能提供什么能力”,这样一个不知疲倦、也没有数量限制的智能物种,到底怎么用好,这里头想象空间非常大,这是落地层面。
科研突破层面,也非常让人期待。大模型热了以后,你会发现它把全世界顶级的理工科人才全吸引到这个赛道。最先进的、最聪明的孩子,原来学数学、物理的人才,全都来搞大模型,所以接下来科研突破也非常令人期待。
高飞:我们这次是提示工程大会,请各自谈谈,怎么用好AI、有什么小技巧?
潘淳:下午有个讲座,正好要介绍,用大模型直接生成Office插件,比如Excel插件,只需要用一个提示词就行。
我们邮储银行财务部最复杂的一张报表,用144张报表加工成1张报给监管单位,平时用人工操作就很麻烦,现在用提示词一键生成Excel插件,提示进去,Excel插件出来,以后再做这个报表,点击一下,自动做完,这就是办公自动化。
邱达:顺便说一下,具备这个功能的插件,在钉钉表格已经上线了。
刘江:简单讲,要多用。我们这些公司,免费烧很多钱,免费提供给大家用,这么一个明显的“新质生产力”的东西,相当于你的数字同事、数字员工,你怎么把它用好考验的是管理能力,大家以后都是管理者、领导者。
所以,我给大家的建议是“多用”。大家首先要有这样一个主观意识,大模型有个特点,它不是原来传统的软件,如果这个东西用的效果不好,不是大模型的问题,是你自己不会用的问题。
袁进辉:刚才说到,关注海外,浏览海外的信息,都用浏览器插件,因为确实读中文比读英文快多了。比如“沉浸式翻译”这样的插件,背后语言模型已经比过去专用的机器翻译模型做的好多了。
所以,今天鼓励大家在生活中、工作中多用,但凡是语言相关的,比如翻译、写作这些,能做的比普通人都要好,这是肯定可以多用的。
另外,这次大会关键词是提示工程,在解决问题中,提示工程也是三板斧的第一板斧,也能解决大部分的问题,如果不行再试试其他更复杂的技术,比如微调等。
魏凯:未来做什么,其实还是看你是谁。
作为像智谱这样的基座模型公司,会沿着大模型水平提升的方向一如既往去追求。而如果是开发者,这一块的潜力洼地比基座模型的空间大。
所以相比之下,中国的基座模型与国外的差距,可能没有应用产业的差距大。我们需要把国内已有的大模型水平完全发挥出来,填补这个空间,跨过这个鸿沟。
在行业和消费者两方面:如何给大模型建一个很好的基础设施,如何给企业里的中台、数据供应链、数据治理做好,编程框架做好,这是ToB市场要做的事情;而ToC市场要做的事情就更多了,要根据用户需求不断迭代。
总体来看,明年在落地方面,产业链要细分,不要卷相同的东西,那会让大家耗费很多资源。确实应该在应用鸿沟里做大家差异化的定位,空间将会无比巨大,等待大家去填补。
而提示工程,就是一个工程化地把大模型用到应用里的方法论。
高飞:谢谢大家。这是一个加速的时代,AI的“A”,是人工的含义,也是加速度的含义,我们期待未来和产业一起加速,让AI永无眠,替我们干活。
好文章,需要你的鼓励
凯悦酒店的数据战略是以通过洞察力驱动的决策和自动化来推进体验为中心的,战略重点是培养最优秀的人才并发展组织的数据文化。
正的杀手级应用案例是连接那些将没有网络连接的人。这将真正消除许多障碍,解决尚未解决的开放空间问题……而我们只是刚刚开始。该产品的核心包括一张单独的eSIM卡,用于思科的私有和公共5G连接,这将使企业能够连接到所需的网络,使用蜂窝技术进行主要或次要连接,然后根据环境变化扩展和管理网络需求。
但尽管微软、谷歌、Meta以及亚马逊等科技巨头先后投入数十亿美元来开发能够处理各种任务的大语言模型(LLM),但对于AI这颗堪称人类智慧皇冠上的明珠之一,一刀切的作法显然并不适合所有情况。