今天,谷歌正式推出Gemini 3.1 Flash TTS——最新一代文本转语音模型。该模型在可控性、表现力与生成质量上均有显著提升,旨在帮助开发者、企业及普通用户构建下一代AI语音应用。
即日起,Gemini 3.1 Flash TTS将分阶段上线:
面向开发者:通过Gemini API及Google AI Studio以预览版形式开放;
面向企业用户:在Vertex AI上以预览版形式提供;
面向Workspace用户:通过Google Vids接入使用。
语音质量与可控性全面提升
谷歌对Gemini 3.1 Flash TTS的整体语音质量进行了深度优化,使其成为目前最自然、最富表现力的语音模型。在Artificial Analysis TTS排行榜(一项基于数千次盲测人类偏好的评测基准)上,该模型斩获1211分的高ELO评分。
Artificial Analysis同时将Gemini 3.1 Flash TTS评定为"最优选象限"内的模型,认为其在高质量语音生成与低成本之间实现了理想平衡。该模型还具备以下核心优势:原生支持多说话人对话、覆盖70余种语言,以及通过自然语言进行精细化创意控制。
全新音频标签,赋予语音更强表现力
Gemini 3.1 Flash TTS引入了音频标签功能,为用户提供了一种直观易用的方式,可灵活控制语音的风格、语速与表达方式。只需在文本输入中直接嵌入自然语言指令,便可对AI语音输出实现更精细的定向调控。
开发者可在Google AI Studio中体验这些音频标签及其他开发体验更新,平台提供多项可配置控件,让开发者化身"导演",全程掌控语音生成效果:
场景导演:通过定义场景环境并提供具体的对话指令来奠定整体基调。这种世界构建式的上下文设定,有助于角色在多轮对话中保持"角色一致性",并自然地相互呼应。
说话人级别精细设置:为每位角色分配专属音频档案,并通过"导演注记"灵活调节语速、语气与口音。借助内联标签,说话人还可在句中实时切换表达方式,突破高层级设置的限制。
无缝导出:完成语音表现的调校后,可将所有参数一键导出为Gemini API代码,确保在不同项目和平台之间保持一致、辨识度高的声音风格。
凭借上述全新配置能力,开发者可针对特定应用场景进行精准调优,打造令人印象深刻的角色形象与沉浸式音频体验。
如需亲身体验高保真语音生成效果,欢迎前往Google AI Studio Playground进行探索。
面向全球规模构建
Gemini 3.1 Flash TTS支持70余种语言,在保障高保真语音输出的同时,提供更为精准的控制能力。针对语音风格、语速及口音的深度优化,将惠及全球主要市场,助力开发者为世界各地的用户打造本地化、富有表现力的语音体验。
已率先参与测试的开发者和企业用户对Gemini 3.1 Flash TTS给予了积极评价,尤其对其出色的可控性和表现力印象深刻。他们表示,音频标签带来了前所未有的创意精准度,能够将简单的文本内容转化为高保真的声音演绎。
SynthID水印保障内容可信
Gemini 3.1 Flash TTS所生成的全部音频均嵌入了SynthID水印。这一不可感知的水印直接编织于音频输出之中,可实现对AI生成内容的可靠检测,从而有效防范虚假信息的传播。
Q&A
Q1:Gemini 3.1 Flash TTS支持哪些语言?
A:Gemini 3.1 Flash TTS支持70余种语言,并针对语音风格、语速及口音进行了深度优化,覆盖全球主要市场,可帮助开发者为不同地区的用户提供本地化、富有表现力的语音体验。
Q2:Gemini 3.1 Flash TTS的音频标签功能怎么用?
A:音频标签是一种在文本输入中直接嵌入自然语言指令的方式,可控制语音的风格、语速与表达。开发者可在Google AI Studio中体验,支持场景导演、说话人级别精细设置和无缝导出等功能,让语音生成更具表现力与创意精准度。
Q3:Gemini 3.1 Flash TTS生成的音频如何防止被滥用?
A:所有由Gemini 3.1 Flash TTS生成的音频都嵌入了SynthID水印。这是一种不可被人耳感知的隐形水印,直接编码于音频输出中,可用于可靠地检测AI生成内容,从而有效遏制虚假信息的扩散。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。