未来世界,万物皆为“计算机”。在人工智能、无所不在的计算、无处不在的连接、以及从云到边缘的基础设施这四股力量的推动之下,数字技术正在加速整个世界的转型。这四股“超级技术力量”相互交织,相辅相成地放大着自身及其合力的影响,并共同重塑着我们生活和工作的方方面面。基于此,英特尔致力于以数据为中心,同时依托智能创新的引擎和加速器—人工智能,为数字化未来打造坚实的基础设施。
英特尔公司执行副总裁兼数据中心与人工智能事业部总经理Sandra Rivera表示,“预计到2026年,英特尔人工智能逻辑芯片的市场规模将超过400亿美元。我们正以强大的实力抓住这个机会,我对未来充满信心。”
现阶段人工智能已经在深刻变革各行各业,未来它也有望改善地球上每个人的生活,但前提是它能够被更容易地大规模部署。基于此,在近日举办的英特尔On产业创新峰会(Intel Vision)上,英特尔公司旗下的Habana Labs正式发布用于深度学习训练的第二代Gaudi®处理器——Gaudi®2,以及即将上市的用于深度学习推理的Goya™处理器的后续产品---Greco。两款产品采用7纳米制程工艺,基于Synapse AI软件栈开发,以Habana的高能效架构为基础,面向数据中心的计算机视觉和自然语言应用,旨在通过支持多样化架构,让终端用户充分利用处理器的高性能和高能效,为其模型训练和推理提供更高的性能。值得注意的是,与当前市面上基于A100的计算机视觉和NPL产品相比,Gaudi2的AI训练性能提高了两倍。
基于与第一代Gaudi相同的体系架构,Habana Gaudi2处理器大幅提高了训练性能。客户在云端运行Amazon EC2 DL1实例以及本地运行Supermicro Gaudi训练服务器时,其性价比比现有GPU解决方案提升了40%。这也得益于从第一代Gaudi到Gaudi2的架构提升,具体主要体现在:制程工艺从16纳米跃升至7纳米;在矩阵乘法(MME)和Tensor处理器核心计算引擎中引入了含FP8在内的新数据类型;Tensor处理器的核心数量由8个增至24个;芯片上集成多媒体处理引擎,实现从主机子系统的卸载;片内封装的内存容量提升了3倍,从32GB提升到带宽2.45TB/秒的96GB HBM2E;集成两倍48MB的板载SRAM存储器;将基于 RDMA (RoCE2) 的集成以太网从10个增至24个,在标准网络上实现高效的纵向和横向扩展。
与此同时,英特尔亦在峰会上披露了第四代英特尔®至强®可扩展处理器的最新产品细节。期待已久的代号为Sapphire Rapids的第四代英特尔至强可扩展处理器的初始SKU已于近日开始出货,紧随其后,预计今年还会有更多出货。Sapphire Rapids是迄今为止英特尔功能最丰富的至强处理器,增强了其在人工智能、安全性等几大关键数据中心领域的领导地位。第四代英特尔至强可扩展处理器提供卓越的整体性能,将支持 DDR5、PCIe 5.0 和 CXL 1.1,并凭借全新的集成加速器,通过针对 AI 工作负载的软硬件优化提供高达 30 倍的性能提升。其次,该产品亦具备针对电信网络的新功能,可以为虚拟无线接入网(vRAN)部署,提供高达两倍的容量增益1。此外,内置高带宽内存(HBM)的代号为Sapphire Rapids的英特尔至强处理器将显著提高处理器的可用内存带宽,从而为高性能计算提供超级动力。
基于内置高带宽内存(HBM)的代号为Sapphire Rapids的英特尔至强处理器和代号为Ponte Vecchio的英特尔数据中心显卡,阿贡国家实验室的极光(Aurora)超级计算机能够提供每秒超过两百亿亿次的双精度峰值计算性能,其中英特尔oneAPI亦为开发者提供无缝的系统集成。在峰会主题演讲中,阿贡国家实验室的计算、环境和生命科学实验室主任Rick Stevens,首次展示了极光(Aurora)超级计算机的安装情况,并深入解析它将如何助力解决人类面临的疑难问题,如更准确地预测气候以及发现应对癌症的新疗法,同时让百亿亿次计算(E级)广泛应用于研发和创新活动。
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。