2025 年 11 月 20 日,华为乾崑生态大会在广州盛大启幕,会上鸿蒙座舱携 MoLA 混合大模型 Agent 架构重磅亮相,不仅首推座舱智能化 L1 - L5 五级分级标准,更以全感官体验、自然交互与主动服务三大方向,重塑智能座舱行业发展格局。目前鸿蒙座舱用户数已突破 120 万,2025 年 1 - 10 月问界车型搭载版本的平均净推荐值达 93.6%,成用户口碑之选。

作为 HarmonySpace 5 起采用的核心架构,MoLA 通过融合多模态感知、通用大模型与垂域智能体,搭建起从用户意图到硬件执行的完整链路。其独创的全域免唤醒、导航三模式纠错等功能,让语音交互告别指令束缚。用户说 “车里有点暗” 即可开启阅读灯,导航时可随时改口调整目的地,彻底实现口语化控车。

此次大会明确鸿蒙座舱率先进入 L3 专业助理阶段。相较于前两级,L3 阶段具备长期记忆、模糊意图理解等核心能力,可主动提供服务。依托感知力、记忆力等六大类人能力,座舱能记住用户通勤习惯并主动创建场景,还可通过图文视频混合形式解答用车疑问,甚至联动外部工具完成咖啡预订等跨场景任务。

生态构建上,鸿蒙座舱以 MoLA 为核心,联动北向与南向双生态。北向新增 HUAWEI SOUND 空间音专区及云游戏,腾讯云游戏上线后可即点即玩热门网游;南向则实现智能香氛与氛围灯联动等外设智能交互,打通人车家无缝协同。

华为通过行业 Know - How、全栈 AI 算法等能力,让 MoLA 架构实现软硬件深度融合。此次发布不仅展示了导航、车控等五大智能体的实战能力,更以标准化分级为行业提供参考,推动智能座舱从出行工具向 “第三生活空间” 加速演进。
好文章,需要你的鼓励
来自北京大学多媒体信息处理国家重点实验室和小鹏汽车的研究团队发布了一项重要研究成果,提出了一种名为FastDriveVLA的创新框架,让自动驾驶AI能够像人类司机一样,学会在纷繁复杂的道路场景中快速识别并聚焦于真正重要的视觉信息。
清华团队开发DKT模型,利用视频扩散AI技术成功解决透明物体深度估计难题。该研究创建了首个透明物体视频数据集TransPhy3D,通过改造预训练视频生成模型,实现了准确的透明物体深度和法向量估计。在机器人抓取实验中,DKT将成功率提升至73%,为智能系统处理复杂视觉场景开辟新路径。
TechCrunch年度创业战场大赛从数千份申请中筛选出200强,其中20强进入决赛角逐10万美元大奖。本次消费科技和教育科技领域共有26家公司入选,涵盖无障碍出行、AI视频制作、服装租赁、护肤推荐、纹身预约等创新应用,以及AI语言学习、个性化数学教育、职场沟通培训等教育科技解决方案,展现了科技创新在日常生活和教育领域的广泛应用前景。
字节跳动研究团队提出了专家-路由器耦合损失方法,解决混合专家模型中路由器无法准确理解专家能力的问题。该方法通过让每个专家对其代表性任务产生最强响应,同时确保代表性任务在对应专家处获得最佳处理,建立了专家与路由器的紧密联系。实验表明该方法显著提升了从30亿到150亿参数模型的性能,训练开销仅增加0.2%-0.8%,为混合专家模型优化提供了高效实用的解决方案。