11月19日,在2025英特尔行业解决方案大会上,英特尔展示了基于英特尔® 酷睿™ Ultra平台的最新边缘AI产品及解决方案,并预览了针对边缘侧的英特尔® 酷睿™ Ultra处理器(第三代),面向具身智能和机器人应用提供强大算力支持。会上,英特尔携手普联技术、海石商用、海信医疗、阿丘科技等众多的生态伙伴,共同分享了丰富的行业应用成果,携手勾勒出端侧AI领域的未来发展新蓝图。

英特尔副总裁兼中国区软件工程和客户端产品事业部总经理高嵩表示,“边缘计算凭借其极其丰富的应用场景,以万象更新之势,为AI带来了新的发展机遇。立足于x86系统的生态优势、AI PC的领导力与技术创新,英特尔正通过更强大、高度集成的软硬一体AI解决方案,为客户提供更具成本效益的边缘算力,加速机器人、智慧教育、智慧交通、智能制造等关键应用场景的落地。我们与广泛的生态合作伙伴紧密协作,共同帮助客户降本增效,推动创新成果更快地走向市场,以卓越的总体拥有成本(TCO)优势,加速产业智能化转型。”
软硬件协同,以AI加速引擎实现更优TCO效益
从智能零售的自助结账系统、工业个人电脑,到医疗影像的核磁共振设备,乃至优化交通与公共安全的边缘服务器,边缘计算正以前所未有的速度重塑企业运营和日常生活。生成式AI与机器视觉的融合催生了新的可能,但同时也面临行业应用碎片化、传统基础设施复杂、AI工作负载集成困难等挑战。因此,衡量边缘AI解决方案不应仅限于理论性能(如TOPS),更应高效整合软硬件资源,提供适配多样化场景的创新方案,并综合考量端到端系统性能与TCO,追求整体价值最大化。

英特尔以动态的边缘AI路线图,通过自上而下的可扩展性、集成AI加速能力的SoC以及广泛开放的软件生态系统,为边缘AI带来卓越的TCO优势。当前,英特尔酷睿Ultra 200H系列处理器在同等功耗和尺寸下,通过架构创新可提供99 TOPS的AI算力。其将AI工作负载高效整合至单颗芯片,显著降低了对独立显卡的需求,从而减少系统功耗,并优化散热与电源设计。这使得酷睿Ultra处理器在超声诊断、制造质检和AI医疗影像等场景中,能在五年部署周期内为客户带来可观的成本节省。

新一代酷睿Ultra处理器,打造机器人“芯”动脉
边缘AI与具身智能技术的飞速发展,正推动机器人市场迎来新的高潮。从工厂里的机械臂到协作机器人、从自主移动机器人(AMR)以及人形机器人,更多创新应用正在走进真实的生活场景。基于Intel 18A制程的英特尔酷睿Ultra处理器(第三代),将实现AI处理和边缘特定功能的突破性改进,实现更快的AI推理速度、更精准的控制能力以及工业级的可靠性,完美响应严苛的边缘计算和物理AI的需求。其核心亮点包括:


同时,为进一步加速物理AI解决方案的早期开发,英特尔推出了全新的机器人AI软件套件和机器人参考主板。这些工具基于英特尔在机器人控制解决方案方面的深厚积累,可以帮助客户快速创新、降低开发门槛,打造更具成本效益的机器人。该软件套件不仅支持开放标准(如ROS 2)、VLA模型和先进视觉算法,还允许在单个CPU上同时支持控制器和AI功能,从而进一步优化TCO。
以持续的产品创新,携手推动边缘AI普及
此外,英特尔通过广泛而开放的边缘生态系统,为上下游企业提供全方位便利,加速产品上市进程,共同推动边缘AI的普及。其中的重要举措如下:

通过协同整个价值链的紧密协同,英特尔致力于加速AI在边缘的发展速度,与生态伙伴共同塑造一个更加智能、高效和互联的未来,创造更多价值。
好文章,需要你的鼓励
苹果研究团队发布新论文,提出让专业设计师通过评论、草图和直接编辑等方式指导AI模型生成更好的用户界面。研究显示,基于设计师原生工作流程的反馈训练方法比传统强化学习效果更佳。21名设计师参与研究,提供1460个标注样本。最终训练的模型在界面设计质量上显著超越基础模型,甚至优于GPT-5。研究发现设计师通过草图和直接编辑提供反馈时,研究团队与设计师的一致性分别达到63.6%和76.1%。
英伟达团队通过44万小时人类日常视频训练出DreamDojo机器人世界模型,实现了机器人通过观察学习复杂操作技能的突破。该系统不仅能预测动作结果,还具备强大的泛化能力,可在未见过的环境中灵活操作新物体。通过创新的潜在动作学习和实时处理技术,为通用机器人智能开辟了新道路。
Atlassian首席执行官向投资者保证,公司能够在不大幅增加成本或压缩利润率的情况下将AI整合到服务中。该公司的Rovo智能AI产品已拥有500万用户,通过优化运营而非高价格策略保持了稳定的利润率。公司第二季度营收达16亿美元,同比增长23%,运营亏损从5750万美元收窄至4770万美元。
浙江大学联合蚂蚁集团推出的InftyThink+技术,通过让AI学会"分段思考、阶段总结"的方式,成功解决了AI推理过程冗长低效的问题。该方法在数学推理任务上将准确率提升21%,推理延迟减少32.8%,为AI实际应用扫清了重要技术障碍。