7月25日,WAIC 2025前一天,阶跃星辰发布会现场人头攒动,阶跃星辰在这场发布会上正式对外发布了Step 3大模型。
值得一提的是,大模型正在重塑产业格局,上海更是在积极布局人工智能产业,在WAIC 2025上,甚至邀请来了人工智能巨星杰弗里·辛顿亲临现场做主题演讲。
此外,据悉,上海人工智能产业规模达到4500亿元,规上企业超过400家,与此同时,上海还打造了大模型阵地模速空间。
在此次发布会上,阶跃星辰还官宣,上海国投将参与阶跃星辰下一轮融资,这也间接公布了阶跃星辰的融资节奏。

01 三大发布:三代大模型、与上海国投合作、成立生态联盟
实际上阶跃星辰在大会上,对外进行了三大发布。
第一项发布正是第三代基础大模型Step 3。
据发布会上公布信息显示,阶跃星辰的这一代基础大模型将在7月31日面向全球开源,并已经成为全球最强开源多模态大模型。
模型推理效率以前有很多工作,deepseek主要是针对H芯片进行了优化设计,针对更多国产算力优化和适配,Step 3从一开始就将这一问题考虑在内。
阶跃星辰创始人、CEO姜大昕在大会上指出,针对某国产卡32K上下文,这代模型推理效率最高可达到deepseek R1的300%,实测H卡分布式推理,吞吐同样提升了70%。

第二项发布是,阶跃星辰与上海国有资本投资有限公司的深度战略合作。
据悉,上海国投也将参与阶跃星辰接下来的新一轮融资。
之所以会有这样的签约,姜大昕给出的主要原因是阶跃星辰在商业化上做出的成绩。
据姜大昕介绍,阶跃星辰商业化今年的目标是10亿元,目前阶跃星辰的大模型已经在智能手机、汽车、金融、内容、城市治理方面相继落地。

第三项发布是,成立“模芯生态创新联盟”。
姜大昕指出,如何降低推理成本已经成为决定大模型应用渗透率的关键问题,而要降低成本,本质上就是要提升算力的应用效率。
为此,阶跃星辰将联合10家芯片厂商、算力平台成立模型生态创新联盟。
在大会现场,我们看到,阶跃星辰邀请来了华为、沐曦、遂原科技、壁仞科技、无问芯穹、天数智芯相关负责人到场,参与了联盟成立仪式。

这一联盟也将成为国内大模型又一个推动大模型应用快速落地的联合体。
02 什么是最适合应用的大模型?
什么是最适合应用的大模型,这是整个行业一直在思考的问题,也是姜大昕过去几年一直在思考的问题。
在此次发布会上,姜大昕将最适合应用的大模型总结为“多、开、好、省”四大“黄金法则”:

“多”是指多模态,虽然关于大模型数学和代码能力的评测榜单层出不穷,但是姜大昕认为,在大量的大模型应用场景,多模态才是刚需;
“开”是指开源,开源模型不仅有利于私有化部署,还可以很方便地进行后训练和微调,这样也才能帮助模型更好地适应下游应用的各种需求;
“好”是指模型能力要够好,不仅要有丰富的知识、善解人意,还要有严谨的逻辑能力和多步推理能力,特别是今年年初deepseek的发布,让强推理能力成为当下大模型的标配;
“省”是指成本要尽可能低,在模型能力足够好的前提下,成本要尽可能低也是用户最真实的需求。
正因如此,姜大昕,阶跃星辰此次发布的Step 3正是为了填补这一市场空白。
在现场,姜大昕就Step 3的感知能力、应用能力进行了实测,让大模型自主定位模糊菜单上的无骨鸭掌的价格,Step 3在现场演示视频中进行了很好的定位。此外,还用上千个token测试了Step 3的性能。

总而言之,阶跃星辰认为,Step 3就是现在最强的多模态开源大模型。
针对不同的应用场景,阶跃星辰此次还发布了一个Step模型全家桶,包括图像理解、图像生成、视频理解、视频生成、语音、音乐在内的多模态场景,都有Step相应的模型最支撑。
不难发现,如今的阶跃星辰将自己的焦点聚焦到了开源多模态大模型,这也是国内“AI六小虎”之一的阶跃星辰,为自己找的一条大模型商业化应用落地的重要路径。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。