Meta 于周六发布了其最新一代生成式 AI 模型。你现在可以通过 Meta AI 的网站体验 Llama 4 模型,而且 Llama 4 很快将为 Meta 旗下的 Instagram、WhatsApp 和 Messenger 服务提供 AI 功能支持。
Meta 与其他 AI 公司之间的竞争正在日益激烈。各公司都在努力开发和发布能够执行更复杂任务和高级推理的 AI 模型,同时还要确保运行时不需要消耗大量计算资源和成本。这是一个难以把握的平衡点,Meta 希望通过其最新模型在与 ChatGPT 和 Gemini 等竞争对手的较量中占据优势。
Llama 4 系列目前提供两个模型:Scout 和 Maverick。它们都是开放权重模型,且具有多模态能力,这意味着它们可以生成文本、图像和代码。像 Meta 这样的开放模型允许开发者了解模型的构建方式。Llama 4 作为开放权重模型,意味着你可以看到模型如何建立连接,以及在学习过程中某些特征是如何被赋予更多权重的。OpenAI 本月早些时候宣布,他们首次开始开发开放权重模型。
Scout 是该系列中最小的模型,设计为可在单个 Nvidia H100 GPU 上运行。Scout 具有 1000 万 token 的上下文窗口,是一个拥有 170 亿参数的模型,包含 16 个专家系统 (模型内的子网络,使其能够更高效地运行任务)。Scout 的性能是 Llama 3 的两倍以上,后者只有 80 亿参数。通常来说,模型的参数越多,就越能更快地产生更好的结果。
Maverick 是一个中型模型,作为 Scout 的大哥,拥有 170 亿参数和 128 个专家系统。Meta 表示,基准测试显示 Maverick 在文本生成方面优于 ChatGPT-4 和 DeepSeek V3。不过在推理和编程方面,DeepSeek 仍占优势。CNET 尚未独立验证 Meta 的基准测试结果。
根据 CEO Mark Zuckerberg 发布的视频,关于 Llama 4 系列的其他模型的信息,包括名为 Behemoth 的基础模型和 Llama 4 推理模型,预计将在本月晚些时候公布。我们可能会在 4 月 29 日开始的公司首届 AI 开发者大会 LlamaCon 上了解到更多相关信息。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
莫斯科高等经济学院研究员尼古拉·斯克里普科开发了IFEval-FC基准测试,专门评估大语言模型在函数调用中遵循格式指令的能力。研究发现,即使是GPT-5和Claude Opus 4.1等最先进模型,在处理看似简单的格式要求时准确率也不超过80%,揭示了AI在实际应用中的重要局限性。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室联合多家机构推出MinerU2.5文档解析模型,仅用12亿参数就在文本、公式、表格识别等任务上全面超越GPT-4o等大型模型。该模型采用创新的两阶段解析策略,先进行全局布局分析再做局部精细识别,计算效率提升一个数量级。通过重新定义任务标准和构建高质量数据引擎,MinerU2.5能准确处理旋转表格、复杂公式、多语言文档等挑战性内容,为文档数字化提供了高效解决方案。