前 OpenAI 首席技术官 Mira Murati 今日宣布成立一家新的人工智能初创公司 Thinking Machines Lab Inc.,该公司将专注于开发多模态模型。
据路透社此前报道,Murati 正在为新企业寻求超过 1 亿美元的融资,该公司在今天发布的创立博文中并未对融资消息做出回应。不过,公司确认了另一个此前报道的细节:前 OpenAI 研究主管 Barret Zoph 已加入初创团队。
Murati 和 Zoph 于去年 9 月离开 OpenAI,此前 ChatGPT 开发商的联合创始人之一 John Schulman 也已卸任。在 Thinking Machines Lab,Murati 担任首席执行官,Zoph 担任首席技术官,而 Schulman 则担任首席研究官。
Thinking Machines Lab 计划训练能够处理文本和图像等多媒体文件的多模态模型。作为 OpenAI 的首席技术官,Murati 曾主导开发 ChatGPT 和图像生成模型 DALL-E。她还在促成 OpenAI 与 Microsoft 的合作关系中发挥了关键作用,Microsoft 为 AI 开发商的研究提供了大量云计算基础设施支持。
该初创公司在创立博文中表示,将"把基础设施质量作为首要任务"。"研究生产力至关重要,它在很大程度上依赖于基础设施的可靠性、效率和易用性。我们的目标是为长远发展正确构建这些基础。"
公司还分享了其发展路线图的其他细节。与 OpenAI 的 o1 不同,其模型不会专门针对编程和数学任务,而是将具备"适应人类专业知识全谱系的能力,并支持更广泛的应用"。目前尚不清楚这些应用是否会包括消费者使用场景。
可定制性将是 Thinking Machines Lab 工程开发的另一个重点。公司计划让客户能够轻松地根据需求定制其 AI 模型。目前,企业主要通过提示词和在专有训练数据集上进行微调来定制神经网络。
去年有报道称,Thinking Machines Lab 的产品将基于专有模型。不过,该公司似乎计划开源其 AI 技术栈的部分组件。
公司在其网站上表示:"我们相信,通过与更广泛的研究人员和开发者社区合作,我们将更有效地推进人类对 AI 的理解。我们计划经常发布技术博客文章、论文和代码。"
开源计划还将包括 AI 安全等方面。公司计划公开发布在避免有害 AI 输出过程中产生的代码和其他技术资产。公司打算使用红队测试等成熟方法来测试其算法的安全性,即通过模拟网络攻击来发现弱点。
Thinking Machines Lab 目前拥有 29 名员工。除了前 OpenAI 员工外,初始团队还包括来自 Google LLC、Meta Platforms Inc.、Mistral 等 AI 生态系统主要企业的研究人员。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。