在成立一周年之际,零一万物公开了开源闭源双轨大模型的战略布局,正式发布了千亿参数Yi-Large闭源模型,并将早先发布的Yi-34B、Yi-9B/6B中小尺寸开源模型版本升级为Yi-1.5系列,每个版本达到同尺寸中SOTA性能最佳。
同时,零一万物本月同步官宣了从应用到生态的产品线:2C生产力应用“万知”正式提供服务、赋能2B生态的“API 开放平台”全球上线。
零一万物CEO李开复博士在活动上表示,零一万物要做一个不一样的全球化大模型公司,所有模型的价值必须体现为用户价值,零一万物重视用户体验,持续优化产品,打造多样化的产品矩阵。“既然要让全世界的人都能用到这个模型,肯定要开源、闭源,还要面向2B、2C。”
开源闭源双轨大模型
谈到大模型,我们就不得不说闭源与开源,而零一万物则采用“两条腿”走路。
千亿参数规模的Yi-Large在第三方权威评测中表现出色。最新出炉的斯坦福评测机构AlpacaEval 2.0经官方认证的模型排行榜上,Yi-Large模型的英语能力主要指标LC Win Rate(控制回复的长度) 排到了世界第二,仅次于 GPT-4 Turbo,Win Rate更排到了世界第一。
不止于此,零一万物已启动下一代Yi-XLarge MoE模型训练,将冲击GPT-5的性能与创新性。
同时,零一万物Yi系列开源模型也迎来全面升级,Yi-1.5分为34B、9B、6B三个版本,且提供了Yi-1.5-Chat微调模型可供开发者选择。
以开源模型构建生态,以闭源模型展开AI-First探索,开源闭源双轨模型策略使得零一万物构建起了生态体系。
零一万物面向国内市场一次性发布了包含Yi-Large、Yi-Large-Turbo、Yi-Medium、Yi-Medium-200K、Yi-Vision、Yi-Spark等多款模型API接口,保证客户能够在不同场景下都能找到最佳性能、最具性价比的方案,Yi API Platform英文站同步对全球开发者开放试用申请。
零一万物API平台负责人蓝雨川表示,作为标准化产品的API复用性更强,商业模式也更趋近于云服务。比起AI 1.0定制化重交付的模式,API能够更快穿透千行百业。
“我们既追求最高的性能,又追求很好的性价比,这是零一万物API的一个特色。”李开复说。
寻找TC-PMF,实现AI应用的爆发
在移动互联网的鼎盛时期,PMF(Product-Market Fit,产品市场契合)曾是众多初创企业追求的核心目标。然而,随着大语言模型成为新的创业焦点,仅仅追求产品与市场契合远远不够。
李开复博士认为,PMF这一概念已经不能完整定义以大模型为基础的AI-First创业,应当引入Technology(技术)与 Cost(成本)组成四维概念——TC-PMF。国内大模型赛道的竞跑从狂奔到长跑,终局发展将取决于各个选手如何有效达到 “TC-PMF”(Product-Market-Technology-Cost Fit,技术成本 X 产品市场契合度),开发出最好的AI-First应用。
零一万物在海外率先验证了TC-PMF,去年9月开始,零一万物便聚焦生产力、社交赛道于海外应用展开探索,已有4款产品陆续上线。目前零一万物海外生产力应用总用户接近千万,营收今年预期过亿人民币。
模基共建与模应一体
作为TC-PMF方法论的落地,零一万物秉持模基共建与模应一体的策略。
模基共建中的“基”是指AI Infra(AI Infrastructure 人工智能基础架构技术),其主要涵盖大模型训练和部署提供各种底层技术设施,在李开复博士看来,自研AI Infra是零一万物必然要走过的路,零一万物也自成立起便将AI Infra设立为重要方向。
零一万物模型训练负责人黄文灝补充说,零一万物着力于实现计算效率的优化,这里面最重要的是对数据的计算效率。算法和Infra要一体优化,最后直接并成一个团队。
“我们模型和Infra团队基本是1比1的规模,特别重视AI Infra,它给我们带来绝对的成本优势,不断降低训练和推理成本。”李开复说。
据了解,零一万物Yi-Large训练环节的平均MFU(Model Flops Utilization,模型算力利用率)已显著超越业内平均水平。多方面优化后,零一万物千亿参数模型的训练成本同比降幅达一倍之多。
无论是2C还是2B,“模应一体”的思路始终贯穿零一万物的商业实践——模型团队与产品团队紧密结合,摸清模型能力边界,针对某一应用场景去优化专有模型。
零一万物生产力产品负责人曹大鹏表示,大模型带来交互式的变革,可以输入一个问题或一个需求就可以开启你的工作。“万知”重构了工作流程,所有工作流都是从一个对话开始。
结语
随着大模型的纵深发展,零一万物采用新的打法,结合模型、Infra、应用三位一体的优势,走向未来AI的普惠点,人人受益。
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。