今天,我们通过 Gemini 3.1 Flash Live 推进了 Gemini 的实时对话能力,这是我们迄今为止质量最高的音频和语音模型。它为新一代语音优先AI提供了所需的速度和自然节奏,为开发者、企业和日常用户提供更直观的体验。
3.1 Flash Live 已在各种 Google 产品中推出:
开发者可通过 Google AI Studio 中的 Gemini Live API 进行预览
企业可在 Gemini Enterprise for Customer Experience 中使用
所有用户都可通过 Search Live 和 Gemini Live 体验
为开发者提供强大推理和任务执行能力
我们提升了 3.1 Flash Live 的整体质量,使其对开发者和企业构建语音优先智能体更加可靠,这些智能体能够大规模完成复杂任务。在衡量多步骤函数调用与各种约束的 ComplexFuncBench Audio 基准测试中,它以 90.8% 的分数领先于我们之前的模型。
在 Scale AI 的 Audio MultiChallenge 上,Gemini 3.1 Flash Live 在开启"思考"模式时以 36.1% 的分数领先。该基准测试专门测试在真实世界音频中典型的中断和犹豫情况下的复杂指令遵循和长程推理能力。
3.1 Flash Live 还改善了音调理解能力,提供更自然的对话。在 Gemini Enterprise for Customer Experience 中,它在识别音调和节奏等声学细微差别方面比 2.5 Flash Native Audio 更有效。它还能更好地根据用户表达的挫折感或困惑动态调整回应。
3.1 Flash Live 让您能够构建在嘈杂环境中处理复杂任务的语音就绪智能体。
3.1 Flash Live 让您能够使用语音进行编程创作并快速迭代。
Verizon、LiveKit 和 The Home Depot 等公司对 3.1 Flash Live 在其工作流程中的表现给出了积极反馈,强调了它改进的自然对话能力。
为所有人提供更自然直观的交互
在 Gemini Live 和 Search Live 中,3.1 Flash Live 模型提供更有用和自然的回应,无论您是询问日常快速问题还是进行更复杂的对话。
在 3.1 Flash Live 模型的支持下,Gemini Live 相比之前的模型提供更快的回应,并且能够跟随您的对话脉络长达两倍时间,在更长的头脑风暴过程中保持您的思维连贯性。
3.1 Flash Live 还具有内在的多语言能力,这使得本周 Search Live 的全球扩展成为可能。通过这次发布,超过200个国家和地区的用户现在可以用他们偏好的语言与搜索进行实时、多模态对话。
所有由 3.1 Flash Live 生成的音频都采用 SynthID 进行水印标记。这种不可感知的水印直接编织到音频输出中,能够可靠检测AI生成的内容,帮助防止错误信息传播。
立即体验 3.1 Flash Live 的自然性和可靠性。我们期待看到您如何与它互动并利用它进行构建。
Q&A
Q1:Gemini 3.1 Flash Live是什么?它有什么主要能力?
A:Gemini 3.1 Flash Live是Google推出的最高质量音频和语音模型,它能够提供实时对话能力,为语音优先AI提供所需的速度和自然节奏,让开发者、企业和普通用户获得更直观的体验。
Q2:Gemini 3.1 Flash Live在基准测试中表现如何?
A:在ComplexFuncBench Audio基准测试中,它以90.8%的分数领先于之前的模型。在Scale AI的Audio MultiChallenge中,开启思考模式时得分36.1%领先,特别在复杂指令遵循和长程推理方面表现出色。
Q3:普通用户如何使用Gemini 3.1 Flash Live?
A:普通用户可以通过Search Live和Gemini Live体验这项技术。它能提供更快的回应速度,跟随对话脉络的时间比之前长两倍,并支持超过200个国家和地区的多语言实时对话。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。