联想集团执行副总裁兼中国区总裁刘军在8月19日举行的2023中国算力大会主论坛上表示,得益于6年前对智能化的前瞻战略布局,联想AI导向的算力基础设施不仅性能领先,还全面覆盖云端、边缘算力场景,同时满足AI大模型和传统模型的训练、推理需求。
(联想集团执行副总裁兼中国区总裁刘军)
据悉,联想集团目前可提供60多款支持人工智能应用基础设施产品,包括支持人工智能应用训练、推理的服务器,支持人工智能边缘的网关以及存储等产品。联想集团还开发了支持人工智能训练的软件平台,为人工智能应用带来领先的算力管理和训练效率提升。
在此次算力大会期间,联想集团重磅发布了搭载8卡NVLink GPU 的AI大模型训练服务器和训推服务器新品,使得其AI服务器家族阵营得到扩充,进一步巩固了联想集团在AI服务器市场的领先地位。
(观众在2023中国算力大会联想展区了解联想问天WA 7780 G3 AI大模型训练服务器)
聚焦到AI服务器产品,联想集团已实现对AI大模型、超大模型训练,AI中小模型训练、推理和AI推理的全域覆盖,参数规模从十亿级到千亿级。整体产品家族已包括刚刚发布的联想问天WA7780 G3、WA5480 G3,以及联想问天WR5220 G3,联想ThinkSyetem SR650 V3、SR670 V2等众多明星产品,并形成稳固的“联想问天+联想ThinkSystem”双品牌战略布局。
据了解,AI导向的基础设施的布局,已推动集团成为全球第三大AI基础设施和服务器供应商,智能基础架构业务板块在全球市场前三名中的增速最快。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。