Microsoft 推出了一类新型高效 AI 模型,可以同时处理文本、图像和语音,同时所需的计算资源显著低于现有系统。今天发布的新 Phi-4 模型在小型语言模型 (SLMs) 的开发领域取得了突破性进展,实现了以往只有更大型 AI 系统才具备的能力。
根据 Microsoft 的技术报告,仅有 56 亿参数的 Phi-4-Multimodal 模型和拥有 38 亿参数的 Phi-4-Mini 模型不仅超越了同等规模的竞争对手,在某些任务上甚至可以匹敌或超越两倍于其规模的模型。
Microsoft 生成式 AI 副总裁 Weizhu Chen 表示:"这些模型旨在为开发者提供先进的 AI 能力。Phi-4-multimodal 能够同时处理语音、视觉和文本,为创建创新的、具有环境感知能力的应用开辟了新的可能性。"
这一技术突破恰逢其时,因为企业越来越倾向于寻找能在标准硬件或"边缘设备"上运行的 AI 模型,而不是依赖云数据中心,以降低成本和延迟,同时保护数据隐私。
Microsoft 如何打造全能小型 AI 模型
Phi-4-Multimodal 的独特之处在于其创新的"mixture of LoRAs"技术,使其能在单一模型中处理文本、图像和语音输入。
研究论文指出:"通过利用 Mixture of LoRAs,Phi-4-Multimodal 扩展了多模态能力,同时最小化了模态之间的干扰。这种方法实现了无缝集成,确保在涉及文本、图像和语音/音频的任务中保持一致的性能。"
这一创新使得模型在添加视觉和语音识别功能的同时保持其强大的语言处理能力,避免了模型适应多种输入类型时常见的性能下降问题。
该模型在 Hugging Face OpenASR 排行榜上以 6.14% 的词错误率位居榜首,超越了 WhisperV3 等专业语音识别系统。它在图像数学和科学推理等视觉任务上也展现出了极具竞争力的表现。
小巧精悍的 AI:Phi-4-mini 树立新的性能标准
尽管体积小巧,Phi-4-Mini 在文本任务上展现出了卓越的能力。Microsoft 报告称,该模型"在各种语言理解基准测试中超越了同等规模的模型,并与两倍大小的模型相当"。
该模型在数学和编程任务上的表现尤为突出。根据研究论文,"Phi-4-Mini 由 32 个 Transformer 层组成,隐藏状态大小为 3,072",并采用组查询注意力机制来优化长文本生成的内存使用。
在 GSM-8K 数学基准测试中,Phi-4-Mini 达到了 88.6% 的得分,超过了大多数 80 亿参数的模型,而在 MATH 基准测试中达到了 64%,远高于同等规模的竞争对手。
技术报告指出:"在数学基准测试中,该模型以巨大优势超越了同等规模的模型,有时差距超过 20 分。它甚至超过了两倍大小模型的分数。"
变革性部署:Phi-4 在实际应用中的高效表现
AI 问答引擎 Capacity 已经利用 Phi 系列模型提升了其平台的效率和准确性。
Capacity 产品负责人 Steve Frederickson 在声明中表示:"从初步实验来看,Phi 令我们印象深刻的是其出色的准确性和易于部署的特性,这甚至是在定制化之前就表现出来的。自那以后,我们能够在保持成本效益和可扩展性的同时,进一步提高了准确性和可靠性。"
Capacity 报告称,在预处理任务中,与竞争对手的工作流程相比,他们实现了 4.2 倍的成本节约,同时保持了相同或更好的质量结果。
无限可能的 AI:Microsoft 的 Phi-4 模型让先进智能无处不在
多年来,AI 发展一直遵循着"更大就是更好"的理念:更多的参数、更大的模型、更高的计算需求。但 Microsoft 的 Phi-4 模型挑战了这一假设,证明力量不仅在于规模,更在于效率。
Phi-4-Multimodal 和 Phi-4-Mini 的设计不是为了科技巨头的数据中心,而是为了现实世界——在这里,计算能力有限,隐私问题至关重要,AI 需要在没有持续云连接的情况下顺畅运行。这些模型虽小,但影响力巨大。Phi-4-Multimodal 将语音、视觉和文本处理集成到单一系统中,而不损失准确性,而 Phi-4-Mini 在数学、编程和推理方面的性能可与两倍于其规模的模型相媲美。
这不仅仅是让 AI 更高效,更是让它更易获取。Microsoft 通过 Azure AI Foundry、Hugging Face 和 Nvidia API Catalog 提供 Phi-4,使其可以广泛应用。目标很明确:打造不受昂贵硬件或庞大基础设施限制的 AI,让它能在标准设备上运行,在网络边缘运行,在计算资源稀缺的行业中运行。
日本 AI 公司 Headwaters Co., Ltd. 的董事 Masaya Nishimaki 亲身体验到了这一影响。他在声明中说:"边缘 AI 在网络连接不稳定或对保密性要求极高的环境中都表现出色。"这意味着 AI 可以在工厂、医院、自动驾驶车辆等需要实时智能但传统云端模型难以胜任的场所发挥作用。
从本质上说,Phi-4 代表了思维方式的转变。AI 不再是那些拥有最大服务器和最深口袋的人的专属工具。如果设计得当,它可以在任何地方为任何人服务。Phi-4 最具革命性的不是它能做什么,而是它能在哪里做。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。