微软公司今日推出三款专为处理图像和音频优化的人工智能模型。
这些算法通过微软Foundry Azure服务提供,开发者可用其构建AI应用。同时,微软已开始在多个产品中部署这些模型。
MAI-Image-2图像生成突破
首个新算法MAI-Image-2能根据用户指令生成最高1024×1024像素的图像。每个提示最多可包含32,000个Token的文本内容。在技术底层,MAI-Image-2使用100亿至500亿个非嵌入参数将指令转换为图像。非嵌入参数是专注于内容生成而非初步数据准备任务的模型组件。
微软表示,MAI-Image-2的速度至少比上一代图像生成器快两倍。
MAI-Transcribe-1语音转录优势
今日发布的第二个新模型MAI-Transcribe-1同样带来显著的速度提升,语音转录速度比微软早期模型快2.5倍。
MAI-Transcribe-1的另一个卖点是准确性。微软在25种语言中测试了该模型的平均词错误率,这是衡量转录质量的指标。MAI-Transcribe-1的错误率为3.9%,超越了Gemini 3.1 Flash和OpenAI的GPT-Transcribe。该模型准确性的一个重要因素是包含了过滤环境噪音的功能。
发布时,MAI-Transcribe-1支持批量转录,意味着该模型只能处理预先准备的文件,如有声读物。微软表示,未来更新将增加实时音频流转录功能。公司还在开发所谓的说话人分离功能,可将转录文本按说话人分割成特定段落。
MAI-Voice-1语音合成创新
微软今日推出的第三个模型名为MAI-Voice-1。顾名思义,它专为根据用户提供的脚本生成合成语音而优化。客户可从内置AI语音中选择,或使用自己的声音。
微软表示,这三款模型相比竞争对手都提供有竞争力的价格。MAI-Image-2定价为每100万输入Token5美元,每100万输出Token33美元。MAI-Transcribe-1每小时转录语音成本0.36美元,而MAI-Voice-1起价为每100万字符22美元。
这些模型不仅通过微软Foundry提供,还可通过其他几个服务获得。微软目前正在将MAI-Image-2部署到Bing和PowerPoint,而MAI-Voice-1可在名为Copilot Audio Expressions的音频创建工具中使用。
为支持AI工作负载,微软开发了名为MAIA的定制AI芯片产品线。该系列的最新成员是专为推理优化的Maia 200,于1月下旬首次亮相。微软表示,这款三纳米芯片在多个基准测试中超越了竞争云服务提供商的定制AI芯片。
Q&A
Q1:MAI-Image-2图像生成模型有什么特点?
A:MAI-Image-2能根据用户指令生成最高1024×1024像素的图像,每个提示最多可包含32,000个Token的文本。使用100亿至500亿个非嵌入参数进行图像生成,速度至少比上一代图像生成器快两倍。
Q2:MAI-Transcribe-1语音转录准确率如何?
A:MAI-Transcribe-1在25种语言测试中平均词错误率仅为3.9%,超越了Gemini 3.1 Flash和OpenAI的GPT-Transcribe。转录速度比微软早期模型快2.5倍,并具备环境噪音过滤功能。
Q3:微软这三款AI模型的价格是多少?
A:MAI-Image-2定价为每100万输入Token5美元,输出Token33美元。MAI-Transcribe-1每小时转录成本0.36美元。MAI-Voice-1起价为每100万字符22美元。微软表示价格相比竞争对手具有竞争力。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。