由全球顶尖大学研究人员合作建立的人工智能实验室 Oumi PBC,今天宣布推出其所描述的全球首个"无条件开放的 AI 平台"。
该计划旨在通过提供开放访问基础模型、数据集和开发工具,打造一个协作式的 AI 研究和开发生态系统。
Oumi 表示,迄今为止,基础 AI 模型的开发主要由限制模型访问的大型科技公司主导。即使被标记为"开源"的模型往往也缺乏完全的透明度,它们提供开放权重(即训练模型的数值参数),但不提供用于训练它们的代码或数据。Oumi 表示,它试图通过提供一个确保 AI 模型和研究完全可访问、可复制且可由任何人修改的平台来改变这种现状。
"AI 需要它的 Linux 时刻,"Oumi 的联合创始人兼首席执行官 Manos Koukoumidis (如图右) 说道,他此前曾领导 Google Cloud 的 AI 计划。"要让开源取得成功,你必须提供每个人需要的工具。"
盈利与使命并重 Oumi 作为一家公益企业运营,这意味着它是一家营利性公司,但在法律上有义务在财务目标与既定的社会或环境使命之间保持平衡。该公司已获得由 Venrock Management LLC 和风险投资公司 Obvious Management Services LLC 领投的 1000 万美元种子轮融资,Plug and Play Platform Spain SL 和 Ascend Venture Capital GP LLC 也参与其中。
Oumi 平台具有可扩展性,允许研究人员使用自己的工具和工作流程,确保与各种 AI 开发方法的兼容性。它还优先考虑可复现性,这是科学研究中的关键因素。Koukoumidis 说:"我们希望确保生产和推进研究的完整流程是完全可记录和可复现的。"
Oumi 最初以 Apache 2.0 许可证下的开源存储库形式启动。开发者可将其用于研究和商业用途。虽然 Oumi 目前不提供平台的托管版本,但公司对未来推出托管服务持开放态度。
灵活且可扩展 Oumi 平台设计为在单一统一系统中支持所有主要基础模型工作流程。主要功能包括能够使用监督式微调、低秩适应、量化低秩适应和直接性能优化等高级技术来训练和微调从 1000 万到 4050 亿参数不等的模型。它可以处理文本和多模态模型,包括 Llama、Qwen 和 Phi。
该工具包支持使用大语言模型评判器合成和整理训练数据,并能够通过流行的推理引擎(如 vLLM 和 SGLang)部署模型。开发者可以根据既定的 AI 基准评估模型,并在从个人笔记本电脑到超大规模云平台的各种环境中工作。该平台与开放模型以及 OpenAI LLC、Anthropic PBC 和 Vertex Systems Oy 等商业模型开发者提供的应用程序接口集成。
Oumi 的创始人认为,目前的 AI 研究格局通过将开发限制在企业孤岛中而造成了人为的创新障碍。"我们的愿景是让 AI 成为终极团队运动,"Oumi 的联合创始人、前 Apple Inc. 机器学习工程师 Oussama Elachqar (如图左) 说。"为 AI 人才提供一个可以集体工作的平台将加速进步,并加快 AI 各个领域的发现。"
超越开放权重 该公司的首次亮相早在中国初创公司 DeepSeek 本周以远低于其他替代方案的成本开发出一个功能强大的大语言模型之前就已计划好了。
Koukoumidis 指出,DeepSeek 以开放权重许可发布其模型,提供了 AI 模型的训练参数,但不包括完整的源代码、训练数据或方法论。
"Oumi 的目标是使社区能够构建下一个真正开放的 DeepSeek,然后是后续版本,"他在书面评论中说。"DeepSeek 的成就表明,解决 AI 开发挑战并不像受计算能力限制那样,而是更多地受人才限制,当前的 AI 格局造成了一种虚假的稀缺感。"他说,一个完全开放的平台可以利用规模经济来提高效率。
来自伊利诺伊大学香槟分校、卡内基梅隆大学、普林斯顿大学、加州理工学院、加州大学伯克利分校、华盛顿大学、纽约大学、麻省理工学院、滑铁卢大学、剑桥大学和牛津大学的 AI 研究人员正在开发该平台。Oumi 表示计划促进完全开放参与的协调研究工作。
Oumi 邀请有兴趣贡献或使用该平台的研究人员访问公司网站或 GitHub 页面了解更多信息。
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。