7月26日,以“智能时代 同球共济”为主题的 2025 世界人工智能大会(WAIC 2025)在上海世博展览馆盛大开幕。在这场全球瞩目的科技盛会上,智能机器人领军企业傅利叶以焕新姿态亮相,携即将发布的人形机器人GR-3和全新升级的“具身智能康复港”重磅登场,传递“以机器人科技赋能人类生活”的公司愿景。
GR-3 新品抢先看:外观首秀,“温暖有爱”的机器人
在本届 WAIC 上,傅利叶带来了即将发布的 GRx 系列第三代产品——GR-3,这也是其在公众场合的首次亮相。
作为傅利叶首款主打交互陪伴的 Care-bot,GR-3 创新性地引入柔肤软包覆材设计和全感交互系统,在功能迭代的基础上,进一步拓展机器人在陪伴与情绪交互维度的体验边界。
基于“以人为本,服务于人”的长期使命,GR-3 超越以往的极简工业风格的硬件设计,突破性地采用莫兰迪暖调配色、动物系的头部设计以及柔和的面部曲线,通过灵动的交互和温暖的触感,打破冰冷的机器形象,拉近人与科技的距离。
傅利叶始终相信,具身智能的终极命题是“如何更好地服务于人”。GR-3 不仅具备安全、可控的功能属性,更是一款真正“以人为本、有温度”的人形机器人。
GR-3 将于 8 月 6 日在北京正式发布,届时将揭晓更多细节,敬请期待。
具身智能康复港:从数字化到智能化的十年跨越
除了 GR-3 的首秀,此次傅利叶展台的另一大亮点是全新升级的“具身智能康复港”,展示了公司在康复医疗领域从数字化、标准化、个性化到具身智能化的深度跨越。
“具身智能康复港”以 GRx 系列人形机器人为核心,融合多模态感知、大模型与精准运控,针对康养场景需求构建了五大训练交互模块:导诊咨询、认知康复训练、上肢康复训练、运动功能重建以及远程康复,实现康复训练、辅助照护与情感陪伴的一体化服务,打造更贴心、智能、人性化的康复服务体验。
傅利叶深耕康养领域十年,积累了丰富的人机交互技术与临床实践经验,深入理解康复场景与客户需求。此次展出的“具身智能康复港”示范方案,源于傅利叶 2020 年推出的“智能康复港”的迭代升级。
作为国内率先基于机器人技术构建的智能康复解决方案,“智能康复港”整合了由傅利叶自主研发的 30 多款康复机器人产品,覆盖神经、骨科、疼痛等多种康复方向,打造出覆盖全身、全周期的一站式标准化智能康复解决方案。通过构建由多类型康复机器人组成的协同网络,“智能康复港”实现功能互补、数据互通,帮助医疗康养机构从零构建标准化康复服务能力。
截至目前,傅利叶“智能康复港”已在全国范围内落地超 300 家案例科室,覆盖省、市、县及乡镇社区卫生机构,服务患者累计超百万。
以人为本,打造有温度的具身智能
2025 年又被称为具身智能商业化落地的元年,如何将具身技术落实到真实场景成为破局关键。傅利叶的机器人技术应用始于康复医养领域,正是这种最细腻、最复杂、最强调安全和体验的交互场景,磨练了傅利叶对应用落地的深刻认知,也成就了傅利叶的独特优势。
无论是具身智能康复港,还是 GR-3,其产品设计的核心始终围绕着“机器人如何更好地服务于人,人和机器人如何友好顺畅地交互”展开。GR-3 既承载了傅利叶的公司愿景和战略发展使命,也是未来 GRx 系列持续迭代的基调之作。
傅利叶还将继续坚持“立足康养、聚焦交互、服务于人”的战略目标,把更多前沿的具身智能技术带入医疗康养、导览互动、学术科研等更多更广泛的真实场景,赋能人类生活。
好文章,需要你的鼓励
惠普企业(HPE)发布搭载英伟达Blackwell架构GPU的新服务器,抢占AI技术需求激增市场。IDC预测,搭载GPU的服务器年增长率将达46.7%,占总市场价值近50%。2025年服务器市场预计增长39.9%至2839亿美元。英伟达向微软等大型云服务商大量供应Blackwell GPU,每周部署约7.2万块,可能影响HPE服务器交付时间。HPE在全球服务器市场占13%份额。受美国出口限制影响,国际客户可能面临额外限制。新服务器将于2025年9月2日开始全球发货。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
安全专业协会ISACA面向全球近20万名认证安全专业人员推出AI安全管理高级认证(AAISM)。研究显示61%的安全专业人员担心生成式AI被威胁行为者利用。该认证涵盖AI治理与项目管理、风险管理、技术与控制三个领域,帮助网络安全专业人员掌握AI安全实施、政策制定和风险管控。申请者需持有CISM或CISSP认证。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。