基于成本、能耗、可靠性和时延、隐私、个性化服务等考虑,端云混合的 AI 才是 AI 的未来,高通认为终端 AI 能力是赋能混合 AI 并让生成式 AI 实现全 球规模化扩展的关键。
百亿参数开源 MoE 大模型 Mixtral 8x7B 再掀热潮,性能超 LLaMA2-70B,对 标 GPT-3.5。MoE(混合专家模型)通过将任务分配给对应的一组专家模型来 提高模型的性能和效率。Mixtral 8x7B 的专家数量为 8 个,总参数量为 470 亿, 但在推理过程中仅调用两个专家即只调用 130 亿参数。
我们认为 MoE 或为现阶段大模型平衡成本、延迟以及性能的最优选择,叠加 开源模型本身高灵活性、安全性和高性价比特点,Mistral AI 的开源 MoE 轻量 化模型可能是未来最适合部署于终端的模型。
目前,高通、联发科、英特尔、 AMD 等龙头芯片厂商都推出了终端 AI 芯片,能跑十亿甚至百亿量级大模型。后 续类 Mixtral 8x7B 的 SMoE 模型在高性能基础上继续压缩的话,很大几率可以 装进终端设备实现本地运行。
SMoE 轻量模型大幅降低了训练的门槛和成本, 且由于在推理时只激活少部分参数,保持较高性能的同时能适应不同的计算环 境,包括计算能力有限的终端,降低推理成本且将催生更多大模型相关应用。
2024 年有望成为终端智能元年,看好拥有终端资源、深耕场景、掌握行业 knowhow、积累了海量数据的 B 端和 C 端公司。
1)未来每台终端都将是 AI 终端,包括 AI PC、AI 手机、AI MR 等,这将带来全新的用户体验。
2)AI PC 有望成为“AI+”终端中最先爆发的。英特尔预计全球今年将交付 4000 万台 AI PC,明年将交付 6000 万台,预估 2025 年底 AI PC 在全球 PC 市场中占比将超 过 20%;微软 AI PC 预计于今年亮相。
3)随着大模型逐步发展,尤其是多模态 能力增强,更广泛的 AIoT 设备也迎来了更新换代的重要机遇。
4)B 端私有化 部署也是 AI 应用的重要方向,关注边缘侧 AI。
5)鸿蒙:提供顶级流畅连接体 验,大模型有望赋能奔赴万物智联下一站。
人形机器人是大模型应用的重要硬件载体,也是终端智能发展的核心方向。
1) 人形机器人是目前具身智能最好的形态,因为它们有着与人相似的外观设计, 能更好地适应周围的环境和基础设施。2)端云混合的“大脑”让机器人既能处理 复杂和高强度的计算任务,又能实时进行信息处理和分析。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。