傅利叶自主研发的新一代通用人形机器人GR-2迎来重磅发布。
立足于“为AI打造最佳具身载体”的产品愿景,GR-2在硬件、设计、开发框架等多个关键环节带来了令人瞩目的创新和提升,展现更灵活、更强劲、更开放的特性,满足各领域开发者、多元应用场景的需求。
设计全面升级,GRx系列的新里程碑
GR-2在外观上沿用GR-1的仿生设计语言,同时进一步优化全身比例——升级后的身高达到175cm,体重63kg,全身共有53个自由度,单臂运动负载达3kg,能够完成更复杂的操作。新一代电池容量翻倍,续航时间延长至2小时。在支持直充的基础上,增加可拆卸换电方案,充分满足运动需求。
GR-2的整机布局采用内走线设计,将线缆置于机器人内部,不仅提升整体美观度,而且精简模块化适配,降低开发者外设布置阻碍,同时为场景适配开发留足空间。为了优化控制策略和性能,GR-2的关节布置由并联改为串联,使得每个关节的运动可以独立计算,有利于开发者部署控制算法,方便调试和维护,降低制造成本。
仿人触觉灵巧手,更灵活的上肢操作
GR-2在上肢操作的灵活度和精准度方面有明显提升,主要得益于傅利叶对灵巧手性能的迭代升级。GR-2所搭载的新一代灵巧手,单手自由度由初代的6个增加至12个,完美复刻人手外形及尺寸,同时最大限度地模拟人手的自然运动。
新一代灵巧手还搭载了6个阵列式触觉传感器及运动控制算法,能够实时感知抓握力度,调整抓取策略,实现对不同形状、材质、重量物体的精准力控抓取。
作为人形机器人产业积极推进商业化的下一个主战场,上肢操作仍需通过大量数据训练来实现泛化性,打破专用性能力壁垒。GR-2支持VR遥操作控制、拖拽示教、上位机末端控制等多种上肢示教方式。快速创建动作,记录上肢运动轨迹、关节角度、力度、灵巧手运动、触觉信息等多维度数据,为采集更多真实训练数据提供有力支持,助力开发者跨越仿真与现实的差距。
执行器2.0,更强劲的运动能力
GR-2在外观结构和运动控制方面实现了更加拟人化的表现。为此,傅利叶量身打造了7款不同型号的FSA执行器,分别应用于机器人的髋、踝等关节处,满足各个关节的力矩要求。这些自研执行器不仅完美适配机器人的仿生形态,还能有效降低硬件成本。
新一代执行器为GR-2提供了更强劲的动力,最大关节峰值扭矩超380N.m。结合完善的执行器控制算法,GR-2拥有更强的负载能力和流畅的运动控制。
新版执行器采用双编码器系统,编码器精度提升了2倍,提供更准确的绝对位置与速度反馈,保证GR-2在执行各种动作时的控制精度,实现高动态响应。
更开放的开发平台,加速AI具身落地
傅利叶高度重视开发者的需求和体验,在此次产品升级中对原有的开发平台进行优化,形成一套基于主流编程语言的开发接口方案。无论是机器人研究学者、工业自动化工程师还是AI软件开发者,都能快速上手,高效定制多样化的应用程序,实现机器人技术创新。
该方案支持服务器-客户端模型的算法程序开发,封装了一系列简洁易用的API,集成了机器视觉、路径规划、力控反馈等预优化的算法模块,在降低开发门槛的同时简化了复杂任务的实现过程,显著提高开发效率。目前支持NVIDIA Isaac Lab、ROS、Mujoco、Webots等开源框架。
平台会提供详尽的日志记录与远程监控功能,内置严格的安全协议和故障恢复机制,确保开发过程安全可靠,并且为开发者提供全面详实的文档资源和快速响应的技术支持。
傅利叶GRx,为AI而生
针对人形机器人本体的未来演进,傅利叶提出了“产品六边形”概念,围绕运动智能、灵巧作业、认知智能、仿生设计、用户体验和商业化应用共六个维度,明确机器人本体的能力标准和发展方向。
“我们在构思产品的过程中一直在思考,全世界有这么多的最强大脑在做 AI的探索,但它仍需要一个物理容器去承载,”傅利叶创始人兼首席执行官顾捷表示。“当人形机器人本体在各个维度都达到最优,成为六边形战士后,它一定会是AI最佳的具身选择。这里的AI不仅限于大模型,还包括机器人感知、决策、执行的全过程。”
傅利叶GRx系列致力于为其合作生态中的科研院校、头部企业、场景开发者和终端客户,打造更拟人、更通用、更友好的双足人形机器人,促进AI与物理世界的紧密融合,实现真正的人机共生。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。