谷歌在周二举办的"Android Show:I/O Edition 2026"发布活动上,正式宣布推出名为Rambler的全新AI语音听写功能,并将其集成至旗下广泛使用的Android键盘应用Gboard中。此次发布意味着谷歌将直接与Wispr Flow、Typeless等一批近年来在桌面端和移动端积累了一定用户基础的AI听写应用展开竞争,而这些应用中大多数尚未在Android平台建立稳固的市场地位。
与其他听写应用类似,Rambler能够自动过滤"嗯""啊"等语气词。与此同时,它还支持句中实时纠正,例如用户说出"我周三下午3点在我们常去的咖啡馆见你……不,2点",系统也能准确理解并记录最终意图。
谷歌表示,Rambler采用基于Gemini的多语言模型,并支持语码转换功能。所谓语码转换,是指用户可以在一句话中自由切换语言——例如从英语切换至印地语——Rambler能够在不丢失上下文语境的情况下流畅跟进。这一能力真实反映了多语言使用者的日常沟通方式,也是大多数西方听写应用迟迟未能完善支持的功能。
谷歌还表示,Gboard会以清晰的界面提示告知用户Rambler功能正在使用中。该功能不会存储任何语音录音,仅使用音频进行转录。谷歌在发布会上表示,由于Rambler可跨所有应用使用,此举相当于"重新定义了键盘"。
在隐私保护方面,Android核心体验总监本·格林伍德表示,谷歌采用设备端与云端相结合的处理方式,并"多年来持续大量投入",以确保功能的"安全性与隐私性"——这番表态显然是针对那些正在权衡Rambler与第三方听写应用数据处理方式差异的用户所传递的明确信号。
过去几年间,Wispr Flow、Willow、SuperWhisper、Monoglogue、Handy、Typeless等一批听写应用相继涌现。然而,此前这些应用的活跃度主要集中在桌面端和iOS平台,Android端的用户需求相对未被充分满足。谷歌本身也于上月在iOS平台发布了AI Edge Eloquent——一款由其设备端Gemma AI模型驱动、以离线优先为设计理念的听写应用。
Rambler是谷歌迄今为止弥补这一市场空白最为明确的行动。这些新功能将首先在夏季限定范围内向三星Galaxy和谷歌Pixel手机开放,后续将逐步扩展至其他Android设备。此举的核心优势在于庞大的分发渠道:Gboard是全球绝大多数Android用户的默认键盘,这意味着Rambler将以预装形式触达数以亿计的用户。当一个平台级玩家以操作系统层面的方式切入某一市场,独立应用就需要提供足够有力的理由——更高的准确率、更丰富的功能,或更强的隐私保障——才能说服用户主动下载安装。
对于听写类初创企业而言,问题已不再是"能否做出一款出色的产品",而是"能否做出出色到让用户主动去寻找它的产品"。
Q&A
Q1:Rambler是什么功能?它有哪些特点?
A:Rambler是谷歌为Gboard键盘推出的AI语音听写功能,基于Gemini多语言模型构建。它能自动过滤"嗯""啊"等语气词,支持句中实时纠正,还具备语码转换能力,允许用户在同一句话中切换不同语言。该功能不存储语音录音,采用设备端与云端相结合的处理方式,可跨所有应用使用。
Q2:Rambler会对Wispr Flow、Typeless等听写类应用造成哪些影响?
A:Rambler凭借Gboard作为全球大多数Android用户默认键盘的庞大分发优势,将以预装形式触达数亿用户,这对Wispr Flow、Typeless等独立听写应用构成直接竞争压力。这些初创应用此前主要在桌面端和iOS端积累用户,Android端本就是薄弱环节,谷歌此次的入局使它们需要在准确率、功能深度或隐私保障方面提供更有力的差异化理由,才能吸引用户主动下载。
Q3:Rambler目前支持哪些设备?普通Android用户何时能用上?
A:Rambler目前将在夏季首先向三星Galaxy和谷歌Pixel手机用户开放,随后才会逐步扩展至其他Android设备。普通Android用户需要等待后续更广泛的推送,具体时间谷歌尚未公布明确时间表。
好文章,需要你的鼓励
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
谷歌在Android Show发布会上宣布,将Gemini更深度整合至Android系统,推出名为"Gemini Intelligence"的升级功能。该功能可跨应用处理日常任务,包括自动填写表单、安排日程、生成购物清单及自定义小组件等,无需用户频繁切换应用。此外,Gboard新增"Rambler"功能,可自动过滤语音输入中的口误和填充词。Gemini Intelligence将率先登陆三星Galaxy和谷歌Pixel手机,并支持Android Auto、Wear OS及智能眼镜。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。