在今日举办的2025英特尔具身智能解决方案推介会上,英特尔正式发布其具身智能大小脑融合方案(下称具身智能方案)。该方案基于英特尔® 酷睿™ Ultra处理器的强大算力,以及全新的具身智能软件开发套件和AI加速框架打造。凭借创新性地模块化设计,其不仅能够兼顾操作精度和智能泛化能力,而且以卓越的性价比满足不同领域需求,为具身智能的规模化、场景化应用落地夯实基础。
英特尔市场营销集团副总裁、中国区OEM & ODM销售事业部总经理郭威表示:“以人形机器人为代表的具身智能行业正迎来前所未有的发展热潮,然而,系统架构的非一致性、解决方案的泛化能力不足、场景适配的复杂性等挑战,正在制约其大规模商业化的进程。基于此,英特尔携手生态伙伴,通过大小脑融合的方式,打造更高效、更智能的解决方案,以基础通用大模型与硬件技术的协同突破,以及开放生态所带来的加速效应,推动具身智能向实践应用场景的迈进。”
英特尔中国边缘计算事业部EIS高级总监 李岩
本次英特尔发布的具身智能方案以大小脑融合为亮点,能够使感知、交互、任务规划和运动控制在统一的系统中实现高效整合。而作为其中的算力中枢,英特尔® 酷睿™ Ultra处理器通过CPU 、集成的英特尔锐炫™ GPU 与 NPU 协同运行,以高性能异构算力和高精度实时性能,支持具身智能的多样化负载稳定运行,同时也大幅提升具身智能系统的整体效率和响应能力。其中,通过CPU 可以支持具身智能方案进行复杂的运动控制,集成的英特尔锐炫™ GPU用于具身智能处理环境感知、任务识别、任务规划、大语言模型(LLM)、视觉语言模型(VLM)和端到端模型等复杂任务,NPU 则承载语音识别、实时视觉处理、传感器数据分析等需长时间运行的 AI 任务。
对具身智能解决方案而言,硬件是基础,而软件优化则是提升整体性能和用户体验不可忽视的一环。基于此,英特尔亦推出具身智能软件开发套件,通过包括OpenVINO™ 工具套件、英特尔® oneAPI 工具包、Intel® Extension for PyTorch-LLM(IPEX)、英特尔® 工业边缘控制平台(ECI)、基于开源机器人操作系统的库、中间件和示例应用程序,使代码实现一次开发多平台部署,缩短评估和开发时间,加快客户应用程序的部署以及算法和应用的运行。此外,英特尔亦提供跨平台 AI 模型优化工具以及端到端流程加速方案,以简化方案搭建过程,加快产品上市。
英特尔® 具身智能软件开发套件
在持续推动具身智能软硬件创新的同时,英特尔亦携手本地生态伙伴展开深度合作,探索从技术研发到场景落地的全链路协同模式,构建起协同共进的产业生态格局,为行业发展注入强劲动力。其中,信步科技推出的具身智能硬件开发平台HB03,搭载英特尔® 酷睿™ Ultra 200系列处理器和英特尔锐炫™ B570显卡,能够提供强大且灵活的算力,并实现极强的控制实时性。信步HB03平台通过紧凑结构、扩展接口与工业级可靠性设计,为具身智能“大小脑”融合构建了有力的硬件支撑。同时,浙江人形机器人创新中心也基于英特尔® 酷睿™处理器,打造出“领航者2号NAVIAI”人形机器人,实现了可泛化高精准视觉伺服、多行为联合学习的长序列行为规划、视力融合的操作行为学习等技术突破,能够使其在工业场景中执行复杂任务,也可以在服务场景中完成人机交互和辅助等任务,助力机器人智能化的深度演进,并推动其向更高层次的智慧形态发展。
在具身智能产业迎来“井喷前夜”之时,英特尔具身智能方案凭借大小脑融合架构的创新,带来功耗、成本、算力的平衡,成为构建具身智能系统的理想选择。未来,英特尔也将持续深化技术创新,与生态伙伴拓展其在医疗、教育、养老等关键领域的应用场景,共建开放、协同的具身智能生态体系,使具身智能真正赋能千行百业,为社会的高效运转与可持续发展提供助力。
好文章,需要你的鼓励
VisTA是一种新型强化学习框架,使视觉AI能够自主探索、选择和组合多种视觉工具。与传统方法不同,VisTA无需人工监督,通过反复尝试学习哪些工具最有效。研究团队在ChartQA、Geometry3K等测试中证明,VisTA显著优于训练免费基线,特别是在分布外样本上表现更佳。其核心创新在于使用群体相对策略优化算法,让AI代理能够根据实际性能而非预设规则来选择工具,为未来发展更灵活的视觉推理系统铺平了道路。
这项研究引入了DFIR-Metric,首个专门评估大语言模型在数字取证与事件响应领域能力的基准测试集。由阿布扎比技术创新研究院领导的国际团队开发的测试包含三个部分:700道理论多选题、150个CTF风格的实际挑战,以及500个基于NIST标准的磁盘与内存取证案例。研究测试了14种顶尖大语言模型,发现虽然它们在理论知识方面表现良好(最高达92.75%准确率),但在需要多步推理的实际取证任务中仍存显著差距(最佳模型仅能解决28%的任务)。
Meta研究团队发现大语言模型在复杂推理任务中,更短的"思考链"反而能带来更高的准确率。研究人员通过三个顶级语言模型的实验证明,选择最短思考链可以比随机选择提高18.8%准确率,比最长思考链提高34.5%准确率,同时显著减少计算资源消耗。基于此,他们提出了"short-m@k"方法,只从最先完成的m个思考中选择答案,既能提高模型表现又能节省高达40%的计算资源。这一发现颠覆了"思考越多越好"的传统观念,为更高效的AI推理开辟了新路径。