中国无人驾驶商业化时代来临,百度Apollo无人驾驶Robotaxi——中国首批“共享无人车”正式开启常态化商业运营,向公众全面开放。5月2日起,公众通过百度Apollo GO App约车,即可在北京首钢园等区域,体验自动驾驶出行平台Apollo GO提供的“共享无人车”出行服务。百度成为中国首个开放运营无人驾驶Robotaxi的公司,即将进入无人驾驶商业化全新阶段。
北京首钢园是2022年冬奥会组委会和部分比赛场馆所在地,是交通流密集的半开放区域。百度Apollo GO“共享无人车”运营路线途经首钢园区场馆区、工作区、停车场、咖啡厅、酒店,可满足用户绝大部分休闲、办公出行需求。后续,百度Apollo GO将布局更多城市和更多区域的常态化运营,提供无人驾驶出行服务,并将在北京冬奥会期间承担首钢园区内运动员、冬奥组委工作人员的接驳任务。
早在2020年10月,百度就在北京亦庄、海淀、顺义等区域开启面向公众的自动驾驶载人测试运营,如今再次加码,在北京启动完全无人驾驶的规模化运营。北京已是百度Apollo自动驾驶运营第一高地。
与常规自动驾驶运营车辆不同,百度Apollo此次开放的Robotaxi可实现完全无人驾驶。Apollo GO“共享无人车”基于无人化运营流程,更加注重乘客交互,专门设置了步行VR导航、遥控车辆鸣笛确认等功能,方便乘客寻找车辆。上车前,乘客需扫描车身二维码,确认身份,并进行健康码扫码登记,才能解锁车门上车。上车后,乘客点击“开始行程”后,系统会检查并确认安全带是否系好、车门是否关好,随后系统自动开启行程。行程中,完全无需人工驾驶,只有偶发车辆遇困时需要“5G云代驾”及时介入帮助脱困。
百度Apollo从2019年开启Robotaxi无人化研发,已在北京、长沙、沧州、美国加州四个城市的开放道路以及其他多个城市的半开放路段同步开展测试。2020年9月15日,百度Apollo通过央视新闻直播,首次完整展示无人驾驶Robotaxi。百度集团资深副总裁、智能驾驶事业群总经理李震宇详细介绍了完全无人驾驶的三要素:“前装量产车”、“AI老司机”、“5G云代驾”。这三大要素是百度Apollo已经具备的产品功能,也是全球自动驾驶技术的最高标准和技术门槛。
与OEM合作生产智能汽车,是百度Apollo自动驾驶商业化落地的途径之一,而Robotaxi共享出行服务则是另一重要途径。最近,Apollo自动驾驶已实现千万公里路测技术积累,此次面向公众全面开放无人驾驶Robotaxi,标志着Apollo已经实现了从单纯技术测试到规模化载客运营的快速进化。通过折扣优惠、体验券、乘坐体验者自愿付费等形式,Apollo已在全国多地启动商业化探索。而在北京启动无人驾驶Robotaxi开放运营,是Apollo对一线城市自动驾驶共享出行模式的全新探索。
百度副总裁、自动驾驶技术部总经理王云鹏表示:“自动驾驶规模化商用能有效缓解交通拥堵,可助力中国早日实现‘碳达峰’、‘碳中和’。无人化是自动驾驶商业化的必经阶段,经历了多城市、长时段、规模化的无人驾驶测试,在5G云代驾等云端服务成熟可靠的前提下,Apollo选择在北京将无人驾驶Robotaxi正式面向公众开放。未来,百度Apollo会在更多城市开启无人驾驶Robotaxi的运营,也将不断完善无人化服务流程,提升用户体验,早日让更多用户享受到更加绿色、低碳、便捷的出行服务。”
百度深耕自动驾驶8年,截至目前测试车队已达500辆,获得智能驾驶专利2900件,获得测试牌照221张,其中载人测试牌照179张,自动驾驶路测里程已经超过1000万公里。4月27日,全球领先的公共及商业咨询公司Guidehouse发布了最新自动驾驶竞争力榜单,百度稳居国际自动驾驶“领导者”阵营,并是领导者行列唯一上榜的中国玩家,已连续两年(2020、2021)稳居领导者行列。Apollo GO也是全球首个拥有多车型的自动驾驶出行服务平台,在长沙、沧州、北京三地全面开放规模化、常态化运营,已为21万人次提供出行服务。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。