看起来本周是小型 AI 模型的风头时刻。
周四,非营利 AI 研究机构 Ai2 发布了 Olmo 2 1B,这是一款拥有 10 亿参数的模型。Ai2 声称,在多个基准测试中,Olmo 2 1B 的表现超越了 Google、Meta 和阿里巴巴等公司推出的同等规模模型。参数(有时称为权重)是模型内部用于指导其行为的组成部分。
Olmo 2 1B 采用宽松的 Apache 2.0 许可证通过 AI 开发平台 Hugging Face 发布。与大多数模型不同,Olmo 2 1B 可以从零开始复现;Ai2 已经提供了用于开发该模型的代码和数据集 ( Olmo-mix-1124 , Dolmino-mix-1124 )。
虽然小型模型在能力上可能不及那些巨型模型,但重要的是,它们不需要高性能硬件运行。这使得开发人员和爱好者在面对较低端以及消费级设备的限制时,更容易使用它们。
在过去几天中,陆续发布了许多小型模型,包括 Microsoft 的 Phi 4 推理系列和 Qwen 的 2.5 Omni 3B。这些模型中的大多数——以及 Olmo 2 1B——都可以轻松在现代笔记本甚至移动设备上运行。
Ai2 表示,Olmo 2 1B 使用了由公开可用、AI 生成及人工创建的资料构成的 4 万亿 Token 数据集进行训练。Token 是模型接收并生成的原始数据单位—— 100 万个 Token 大约相当于 75 万个单词。
在衡量算术推理能力的基准测试 GSM8K 上,Olmo 2 1B 的得分优于 Google 的 Gemma 3 1B、Meta 的 Llama 3.2 1B 以及阿里巴巴的 Qwen 2.5 1.5B。在 TruthfulQA (一项评估事实准确性的测试)上,Olmo 2 1B 的表现同样超越了这三款模型。
不过,Ai2 警告称 Olmo 2 1B 也存在一定风险。该组织表示,像所有 AI 模型一样,它可能会产生“问题输出”,包括有害及“敏感”内容,以及事实不准确的陈述。因此,Ai2 建议不要在商业环境中部署 Olmo 2 1B。
好文章,需要你的鼓励
本文探讨代理型 AI 如何推动网络安全变革。CrowdStrike CEO George Kurtz 详细介绍了其在自主威胁响应中的应用及由此带来的新风险,强调了数据驱动策略的重要性。
Ai2 最近发布了名为 Olmo 2 1B 的 10 亿参数小型 AI 模型,在算术推理与事实核查测试中表现优于 Google、Meta 与阿里,尽管存在潜在风险,不建议商业应用。
在人工智能推动海量数据处理需求下,电力短缺问题愈发严重。为突破电网瓶颈,开发商正通过现场发电、天然气和小型模块反应器等措施,确保数据中心高效、可靠地供电。
一项新研究称 LM Arena 平台存在不公正操作,偏向大企业私测的专有模型,而开放模型得不到足够评测,平台运营者对此表示争议。