大模型之家2024年9月热力榜:“快慢”思考引热议,大厂多模态领域齐发力
“慢思考”概念的提出,也引发了全行业的深思。如360两月前便提出的CoE(专家协同)架构。该架构通过整合多个大型模型和专家模型,构建了一个协作网络,实现了“快思考”与“慢思考”的有机结合,进一步提高了推理任务的灵活性和精确度。
本月,OpenAI在其新模型o1-preview发布后,引入了大模型“慢思考”的概念。这一概念模拟人类思维过程,通过多步推理和深度思考,逐步分解并解决问题,以达到精准回答的目的。与传统依赖海量数据训练的方法不同,“慢思考”更注重逻辑推理和问题解决策略,从而提升AI的回应准确性。
“慢思考”概念的提出,也引发了全行业的深思。如360两月前便提出的CoE(专家协同)架构。该架构通过整合多个大型模型和专家模型,构建了一个协作网络,实现了“快思考”与“慢思考”的有机结合,进一步提高了推理任务的灵活性和精确度。
在2024年《9月大模型热力榜》中,大模型之家榜单共收录了207家大型模型及其所属企业,相比上月新增了5家。值得一提的是,百度文心一言本月重返热力榜榜首。众多厂商在多模态领域,尤其是视频生成模型方面,持续进行创新和突破,展现了他们在前沿技术领域的强大实力和广泛影响,同时也为榜单带来了新的变化。
值得注意的是,本月内百度和支付宝相继推出了“文小言”和“支小宝”等一系列以“小”字命名的AI产品。这些产品的出现不禁让人联想到几个月前百川智能发布的“百小应”结合搜索技术与大模型,提供专业知识和个性化服务,这样超前的设计理念也使其在同类产品中脱颖而出。
9月4日,百度文心一言APP升级为“文小言”,定位为“新搜索”智能助手。创新推出富媒体搜索、多模态输入、文本与图片创作、高拟真数字人等“新搜索”功能,以及记忆和自由订阅等新颖功能。被认为是新搜索领域中与大型模型结合最原始和彻底的AI应用。
9月19日,阿里巴巴通义万相平台视频生成功能上线,支持生成5秒、30帧/秒、720P分辨率视频,配有匹配音效。平台提供文生视频和图生视频创作入口。27日,通义App推出翻译助手、视频通话和旅行智能体等功能,结合AI翻译和导游能力,提升用户国庆假期旅行体验。
9月19日,华为副董事长、轮值董事长徐直军提出智能化时代企业应具备“六个A”特征:自适应体验、自演进产品、自治运营、增强员工、全联接资源和智能原生基础设施。他介绍,华为云通过昇腾云服务提供AI算力,ModelArts服务支持主流基础大模型开箱即用。同时,华为云正打造盘古5.0,支持全系列模型,为企业提供更多选择。
9月24日,火山引擎发布豆包视频生成-PixelDance和Seaweed两款大模型,面向企业市场邀测。现场展示的视频生成效果,包括语义理解、复杂交互画面和多镜头切换的一致性,均达业界先进水平。火山引擎总裁谭待表示,豆包模型将持续演进,突破视频生成难关,拓展AI视频创作空间和应用落地。
9月26日,商汤大装置事业群研发总监张行程介绍了商汤大模型基于昇腾原生开发实践。通过软硬优化技术,商汤构建了大规模并行训练加速系统,102B模型训练性能超业界120%,集群规模扩展3倍后线性加速比达97%以上。基于昇腾计算生态,商汤还实现了长序列并行训练加速,4K序列性能提升1倍以上,能处理128K长序列训练。
据弗若斯特沙利文和头豹研究院发布的《中国AI代码生成市场报告》,商汤科技被认定为6家AI代码生成厂商主流玩家之一,且市场综合竞争表现最强。
接下来快和「大模型之家」一起来看看2024年《9月大模型热力榜》中是否有你关注的大模型吧!
0赞好文章,需要你的鼓励
推荐文章
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。