未来世界,万物皆为“计算机”。在人工智能、无所不在的计算、无处不在的连接、以及从云到边缘的基础设施这四股力量的推动之下,数字技术正在加速整个世界的转型。这四股“超级技术力量”相互交织,相辅相成地放大着自身及其合力的影响,并共同重塑着我们生活和工作的方方面面。基于此,英特尔致力于以数据为中心,同时依托智能创新的引擎和加速器—人工智能,为数字化未来打造坚实的基础设施。
英特尔公司执行副总裁兼数据中心与人工智能事业部总经理Sandra Rivera表示,“预计到2026年,英特尔人工智能逻辑芯片的市场规模将超过400亿美元。我们正以强大的实力抓住这个机会,我对未来充满信心。”
现阶段人工智能已经在深刻变革各行各业,未来它也有望改善地球上每个人的生活,但前提是它能够被更容易地大规模部署。基于此,在近日举办的英特尔On产业创新峰会(Intel Vision)上,英特尔公司旗下的Habana Labs正式发布用于深度学习训练的第二代Gaudi®处理器——Gaudi®2,以及即将上市的用于深度学习推理的Goya™处理器的后续产品---Greco。两款产品采用7纳米制程工艺,基于Synapse AI软件栈开发,以Habana的高能效架构为基础,面向数据中心的计算机视觉和自然语言应用,旨在通过支持多样化架构,让终端用户充分利用处理器的高性能和高能效,为其模型训练和推理提供更高的性能。值得注意的是,与当前市面上基于A100的计算机视觉和NPL产品相比,Gaudi2的AI训练性能提高了两倍。
基于与第一代Gaudi相同的体系架构,Habana Gaudi2处理器大幅提高了训练性能。客户在云端运行Amazon EC2 DL1实例以及本地运行Supermicro Gaudi训练服务器时,其性价比比现有GPU解决方案提升了40%。这也得益于从第一代Gaudi到Gaudi2的架构提升,具体主要体现在:制程工艺从16纳米跃升至7纳米;在矩阵乘法(MME)和Tensor处理器核心计算引擎中引入了含FP8在内的新数据类型;Tensor处理器的核心数量由8个增至24个;芯片上集成多媒体处理引擎,实现从主机子系统的卸载;片内封装的内存容量提升了3倍,从32GB提升到带宽2.45TB/秒的96GB HBM2E;集成两倍48MB的板载SRAM存储器;将基于 RDMA (RoCE2) 的集成以太网从10个增至24个,在标准网络上实现高效的纵向和横向扩展。
与此同时,英特尔亦在峰会上披露了第四代英特尔®至强®可扩展处理器的最新产品细节。期待已久的代号为Sapphire Rapids的第四代英特尔至强可扩展处理器的初始SKU已于近日开始出货,紧随其后,预计今年还会有更多出货。Sapphire Rapids是迄今为止英特尔功能最丰富的至强处理器,增强了其在人工智能、安全性等几大关键数据中心领域的领导地位。第四代英特尔至强可扩展处理器提供卓越的整体性能,将支持 DDR5、PCIe 5.0 和 CXL 1.1,并凭借全新的集成加速器,通过针对 AI 工作负载的软硬件优化提供高达 30 倍的性能提升。其次,该产品亦具备针对电信网络的新功能,可以为虚拟无线接入网(vRAN)部署,提供高达两倍的容量增益1。此外,内置高带宽内存(HBM)的代号为Sapphire Rapids的英特尔至强处理器将显著提高处理器的可用内存带宽,从而为高性能计算提供超级动力。
基于内置高带宽内存(HBM)的代号为Sapphire Rapids的英特尔至强处理器和代号为Ponte Vecchio的英特尔数据中心显卡,阿贡国家实验室的极光(Aurora)超级计算机能够提供每秒超过两百亿亿次的双精度峰值计算性能,其中英特尔oneAPI亦为开发者提供无缝的系统集成。在峰会主题演讲中,阿贡国家实验室的计算、环境和生命科学实验室主任Rick Stevens,首次展示了极光(Aurora)超级计算机的安装情况,并深入解析它将如何助力解决人类面临的疑难问题,如更准确地预测气候以及发现应对癌症的新疗法,同时让百亿亿次计算(E级)广泛应用于研发和创新活动。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。