10月28日,在今年的秋季新品发布会上,雷鸟创新正式对外发布了雷鸟Air 3系列产品。
这是在雷鸟创新在今年陆续完成5亿元融资、XR光学和整机两大总部落地计划公布后,雷鸟对外发布的又一款新品。
值得注意的是,雷鸟此次发布的雷鸟Air 3用上了与TCL联合研发的孔雀光学引擎、与视涯联合研发的第五代Micro-OLED方案,还在画质调校、扬声器设计上下了大功夫。
雷鸟创新创始人兼CEO李宏伟在发布会上称,雷鸟创新希望借助这代产品,开创全民AR时代。
为此,雷鸟创新不仅将这代产品定价到了1699元,还发布了针对索尼屏幕进行了重新色彩调校优化的雷鸟Air 2三周年冠军版,并将这款产品定价到了1399元。
AR行业的歧途和正道
“大家都想将AR眼镜变成下一代计算平台,但91%的分体式AR眼镜用户主要使用AR眼镜来做两件事——观影和游戏。”
当前市场上大量AR公司在用户使用9%的场景里投入了90%的研发精力,李宏伟认为,现在的AR行业正在“误入歧途”。
“雷鸟Air 3的定位十分清晰,即抛弃其他一切伪需求场景,专注于用户的观影和游戏体验,打造影音AR眼镜的下一代天花板。”李宏伟在发布会上如是说。
在李宏伟看来,当前的AR眼镜尚未成熟到可以完全取代手机的地步,离真正成为主流智能终端还有一段路要走。
因此,雷鸟创新一方面持续在最前沿的光波导技术上进行突破,以实现更高的显示效果和更轻便的佩戴体验。
实际上,前不久Meta对外发布并引起高度关注的AR眼镜Orion,用的也正是光波导技术路线。
此外,这代产品沿用了对观影体验更友好的BirdBath光学方案,并针对关键技术细节进行了优化,具体而言:
在画质上,雷鸟Air 3搭载了雷鸟创新与TCL联合研发的全新孔雀显示引擎,在光路系统上率先实现了多层高精度AR镀膜,有效减少杂光干扰,带来更纯净的画面。
Air 3实现了14mm*7mm的超大Eyebox面积,可适配93%的瞳距人群,使不同头型的用户都可以获得一致的清晰观影体验。
这代产品还搭载了雷鸟创新与视涯共同首发的第五代Micro-OLED,相比上一代产品,第五代Micro-OLED在降低功耗的同时,显著提升了显示效果,并实现了硬件级的抗疲劳保护,为长时间观影提供了专业护眼保障。
据雷鸟创新官方数据显示,雷鸟Air3能实现145% sRGB色域覆盖,650nits的入眼亮度和200000:1的对比度,使高光和暗部细节呈现更为丰富。
在护眼技术上,Air 3首次将高端手机的护眼科技引入AR眼镜领域,实现了双重护眼。雷鸟Air 3不仅延续了上一代的硬件防蓝光技术,还支持3840Hz的PWM高频调光,有效缓解用眼疲劳,并通过南德TUV防蓝光和抗疲劳双重认证。
在音质上,Air 3搭载了独家的双单元背靠背音频结构,声压级为行业平均水平的2.5倍,让眼镜音质表现达到新的高度,实现更为震撼的听觉体验。
全民AR时代要来了?
作为被视为科技感十足的硬件品类,如何推动这一品类在消费市场普及,让AR眼镜真正成为一种生活方式,是AR厂商需要考虑的问题。
作为国内核心玩家,雷鸟创新同样希望推动这一产品在国内普及开来。
为此,雷鸟创新将雷鸟Air 3定价到了2000元以内——1699 元。
李宏伟称,“雷鸟创新希望雷鸟Air 3的推出可以像电动汽车行业中的Model 3,依托行业领导者的地位,通过技术迭代和产业链联动,不断降低成本、提高品质,从而让价格触及更多消费者的可承受范围。”
实际上,此次雷鸟创新在新品上的定价策略背后,有赖于雷鸟创新核心部件和显示技术的自主研发,以及与供应链伙伴的深度合作。
雷鸟创新对产业链的深度整合,让雷鸟Air 3有了进一步进行市场下沉的可能。
此外,雷鸟创新还发布了定价1399元的雷鸟Air 2三周年冠军版,李宏伟称,雷鸟创新是希望这款产品可以成为“年轻人的第一台AR眼镜”。
聚焦用户最关心的“观影+游戏”体验,以高质量的显示和音效体验打破传统界限,为用户提供极致的影音享受,是雷鸟创新当下做AR眼镜的产品策略,也是李宏伟对当下AR行业的判断。
那么,不急于求成的雷鸟创新,能否打造出“年轻人的第一台AR眼镜”?
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。