Google LLC和Cohere Inc.今日发布了专为音频处理任务优化的新人工智能模型。
这家搜索巨头的算法Gemini 3.1 Flash Live能够自动化客户服务交互。Cohere的新AI模型则专为语音转录而设计。两款模型的输出质量都比其前代产品有显著提升。
企业可使用Gemini 3.1 Flash Live构建语音智能体来处理客户服务电话。例如,零售商可以创建一个智能体来自动处理产品退货请求。Google表示,Gemini 3.1 Flash Live能够检测用户何时感到沮丧或困惑,并相应调整其回应。
该模型不仅理解语音,还能处理图像等其他输入。这意味着遇到智能家居设备故障的用户可以上传设备照片,帮助Gemini 3.1 Flash Live进行故障排除。此外,工具使用功能使模型能够从产品文档存储库等外部来源检索数据。
Google使用名为ComplexFuncBench Audio的基准测试评估了该AI的工具使用能力。Gemini 3.1 Flash Live得分90.8%,比公司前一代模型提升近20%。该模型在第二个音频基准Audio MultiChallenge上创造了新纪录。
自动化客户支持交互并非Gemini 3.1 Flash Live支持的唯一用例。开发者可以使用它为应用程序构建语音界面。此外,该模型还支撑着Google的Gemini聊天机器人和Search Live多模态搜索工具的语音功能。
Google产品经理Valeria Wu和软件工程师Yifan Ding在博客文章中写道:"借助底层的3.1 Flash Live模型,Gemini Live相比前代模型提供更快的响应,并且能够跟踪对话线索的时间延长了一倍,在较长的头脑风暴中保持思路的连贯性。"
Cohere Transcribe专注于更窄的应用领域:它专为转录任务而构建。该公司表示,这一算法在同类产品中最为准确,平均词错误率为5.42%。这使其在名为Hugging Face Open ASR Leaderboard的音频模型排行榜上位居榜首。
新模型通过将原始音频转换为更易处理的数学表示来开始转录生成过程。这一任务由所谓的Conformer算法执行。Conformer结合了卷积神经网络(一种常用于音频处理任务的AI)和Transformer模型。
在将音频转换为数学表示后,Cohere Transcribe使用独立的Transformer生成转录文本。Cohere表示它能够输出十多种语言的文本。该模型在其Conformer和Transformer组件中总共有20亿参数,这意味着它运行时对计算能力的要求相对较低。
Cohere Transcribe采用开源Apache 2.0许可证。企业可以在自己的基础设施上运行它,也可以使用Cohere的Model Vault托管推理服务。该公司还计划将这一算法集成到其North生产力平台中,该平台允许员工搜索商业文档并自动化重复性任务。
Q&A
Q1:Gemini 3.1 Flash Live有什么主要功能?
A:Gemini 3.1 Flash Live可以自动化客户服务交互,构建语音智能体来处理客户服务电话。它能检测用户情绪并调整回应,理解语音和图像等多种输入,还能从外部数据源检索信息。在工具使用能力测试中得分90.8%,比前代模型提升近20%。
Q2:Cohere Transcribe的转录准确率如何?
A:Cohere Transcribe在同类产品中准确率最高,平均词错误率仅为5.42%,在Hugging Face Open ASR Leaderboard音频模型排行榜上位居榜首。它能够输出十多种语言的文本,总共有20亿参数,对计算能力要求相对较低。
Q3:这两款音频AI模型如何使用?
A:Gemini 3.1 Flash Live支撑Google的Gemini聊天机器人和Search Live工具的语音功能,开发者可用它构建应用程序的语音界面。Cohere Transcribe采用开源Apache 2.0许可证,企业可在自有基础设施上运行或使用Cohere的托管服务,还将集成到North生产力平台中。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。