Microsoft 推出了一类新型高效 AI 模型,可以同时处理文本、图像和语音,同时所需的计算资源显著低于现有系统。今天发布的新 Phi-4 模型在小型语言模型 (SLMs) 的开发领域取得了突破性进展,实现了以往只有更大型 AI 系统才具备的能力。
根据 Microsoft 的技术报告,仅有 56 亿参数的 Phi-4-Multimodal 模型和拥有 38 亿参数的 Phi-4-Mini 模型不仅超越了同等规模的竞争对手,在某些任务上甚至可以匹敌或超越两倍于其规模的模型。
Microsoft 生成式 AI 副总裁 Weizhu Chen 表示:"这些模型旨在为开发者提供先进的 AI 能力。Phi-4-multimodal 能够同时处理语音、视觉和文本,为创建创新的、具有环境感知能力的应用开辟了新的可能性。"
这一技术突破恰逢其时,因为企业越来越倾向于寻找能在标准硬件或"边缘设备"上运行的 AI 模型,而不是依赖云数据中心,以降低成本和延迟,同时保护数据隐私。
Microsoft 如何打造全能小型 AI 模型
Phi-4-Multimodal 的独特之处在于其创新的"mixture of LoRAs"技术,使其能在单一模型中处理文本、图像和语音输入。
研究论文指出:"通过利用 Mixture of LoRAs,Phi-4-Multimodal 扩展了多模态能力,同时最小化了模态之间的干扰。这种方法实现了无缝集成,确保在涉及文本、图像和语音/音频的任务中保持一致的性能。"
这一创新使得模型在添加视觉和语音识别功能的同时保持其强大的语言处理能力,避免了模型适应多种输入类型时常见的性能下降问题。
该模型在 Hugging Face OpenASR 排行榜上以 6.14% 的词错误率位居榜首,超越了 WhisperV3 等专业语音识别系统。它在图像数学和科学推理等视觉任务上也展现出了极具竞争力的表现。
小巧精悍的 AI:Phi-4-mini 树立新的性能标准
尽管体积小巧,Phi-4-Mini 在文本任务上展现出了卓越的能力。Microsoft 报告称,该模型"在各种语言理解基准测试中超越了同等规模的模型,并与两倍大小的模型相当"。
该模型在数学和编程任务上的表现尤为突出。根据研究论文,"Phi-4-Mini 由 32 个 Transformer 层组成,隐藏状态大小为 3,072",并采用组查询注意力机制来优化长文本生成的内存使用。
在 GSM-8K 数学基准测试中,Phi-4-Mini 达到了 88.6% 的得分,超过了大多数 80 亿参数的模型,而在 MATH 基准测试中达到了 64%,远高于同等规模的竞争对手。
技术报告指出:"在数学基准测试中,该模型以巨大优势超越了同等规模的模型,有时差距超过 20 分。它甚至超过了两倍大小模型的分数。"
变革性部署:Phi-4 在实际应用中的高效表现
AI 问答引擎 Capacity 已经利用 Phi 系列模型提升了其平台的效率和准确性。
Capacity 产品负责人 Steve Frederickson 在声明中表示:"从初步实验来看,Phi 令我们印象深刻的是其出色的准确性和易于部署的特性,这甚至是在定制化之前就表现出来的。自那以后,我们能够在保持成本效益和可扩展性的同时,进一步提高了准确性和可靠性。"
Capacity 报告称,在预处理任务中,与竞争对手的工作流程相比,他们实现了 4.2 倍的成本节约,同时保持了相同或更好的质量结果。
无限可能的 AI:Microsoft 的 Phi-4 模型让先进智能无处不在
多年来,AI 发展一直遵循着"更大就是更好"的理念:更多的参数、更大的模型、更高的计算需求。但 Microsoft 的 Phi-4 模型挑战了这一假设,证明力量不仅在于规模,更在于效率。
Phi-4-Multimodal 和 Phi-4-Mini 的设计不是为了科技巨头的数据中心,而是为了现实世界——在这里,计算能力有限,隐私问题至关重要,AI 需要在没有持续云连接的情况下顺畅运行。这些模型虽小,但影响力巨大。Phi-4-Multimodal 将语音、视觉和文本处理集成到单一系统中,而不损失准确性,而 Phi-4-Mini 在数学、编程和推理方面的性能可与两倍于其规模的模型相媲美。
这不仅仅是让 AI 更高效,更是让它更易获取。Microsoft 通过 Azure AI Foundry、Hugging Face 和 Nvidia API Catalog 提供 Phi-4,使其可以广泛应用。目标很明确:打造不受昂贵硬件或庞大基础设施限制的 AI,让它能在标准设备上运行,在网络边缘运行,在计算资源稀缺的行业中运行。
日本 AI 公司 Headwaters Co., Ltd. 的董事 Masaya Nishimaki 亲身体验到了这一影响。他在声明中说:"边缘 AI 在网络连接不稳定或对保密性要求极高的环境中都表现出色。"这意味着 AI 可以在工厂、医院、自动驾驶车辆等需要实时智能但传统云端模型难以胜任的场所发挥作用。
从本质上说,Phi-4 代表了思维方式的转变。AI 不再是那些拥有最大服务器和最深口袋的人的专属工具。如果设计得当,它可以在任何地方为任何人服务。Phi-4 最具革命性的不是它能做什么,而是它能在哪里做。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。