3月6日,OpenAI在官网正式回应了马斯克的起诉,并公布了多封他在OpenAI时与Sam Altman、Greg Brockman、Ilya Sutskever等联合创始人的重要邮件。
从这些邮件来看,当年马斯克对OpenAI的发展态度,与他提供的诉讼文件明显不符:1)马斯克支持OpenAI成为一个营利性组织,但他需要有绝对的控制权;
2)2016年,Ilya在邮件中指出,为了避免AI被不道德人使用,以及人们应该从构建后的AI成果中受益,不开源也是可以的。马斯克的回复:是的。
3)马斯克希望完全掌控OpenAI,并希望与特斯拉合并。商讨破裂马斯克离开OpenAI,并且非常不看好OpenAI与谷歌进行竞争。
官方原文:https://openai.com/blog/openai-elon-musk#email-4
马斯克为什么离开OpenAI
在2015年创立时,OpenAI就定下了一个伟大的目标构建AGI(通用AI)造福全人类。
但他们很快意识到这是一个非常烧钱的项目,马斯克认为(邮件写的),想搞AGI每年不烧个几十亿美元根本没戏,更别提和谷歌、Facebook 那种上万亿级别的巨头竞争。
所以在2017年底,Altman与马斯克商量成立一个营利性组织以便获取更多的资源。马斯克表示,成立没问题,但他必须获得多数股权、初始董事会控制权并担任首席执行官。
商讨期间,马斯克还扣留了OpenAI的一些初始资金,好在Reid Hoffman(OpenAI早期资金资助人之一)提供了工资和运营资金。
Altman等人没有与马斯克在营利性条款方面达成一致,因为任何个人对 OpenAI 拥有绝对控制权都是违背使命的。
随后,马斯克在邮件中写道,OpenAI应该与特斯拉合并才有希望与谷歌等竞争,也是唯一的希望之路。
最后,谈判彻底破裂,马斯克离开OpenAI,顺带嘲讽了一下,就你们这点人,这点钱,想搞AGI和谷歌竞争?我真希望,是我做出了错误的判断。
OpenAI公布的邮件
2015年11月22日,来自马斯克:
博客听起来不错,但要考虑到中立性和以YC 为中心。
我更倾向于将博客定位为更吸引普通大众--让大众支持我们取得成功有很大的价值--然后为招聘工作准备一个更长、更详细、更有内幕的版本,并在普通大众版本的末尾提供链接。
我们需要一个比1亿美元大得多的数字,以避免与谷歌或 Facebook 的支出相比显得毫无希望。我认为我们应该说,我们将从 10 亿美元的资金承诺开始。这是真的。其他人不提供的,我都会提供。
模板看起来还不错,除了默认转为归属现金红利外,还可以选择将其转为 YC 或 SpaceX(需要了解具体数额)的股票。
2016年1月2日,来自Ilya Sutskever:
安全的AI,比不安全的AI更难构建。如果通过开源,我们就会让那些能够获得大量硬件的不法之人很容易构建出不安全的AI。
随着我们越来越接近构建AI,开始降低开放程度将变得更有意义。OpenAI 中的 "Open "意味着,在AI建成后,每个人都应从AI的成果中获益,但不分享科学知识也是完全可以的(尽管在短期和中期内,为了招聘的目的,分享一切绝对是正确的策略)。
马斯克的回复:是的。
2018年1月31日,一封被遮挡名字,发送给马斯克的邮件:
我认为,OpenAI当前正在燃烧金钱,其融资模式无法达到与谷歌(一家8000亿美元的公司)真正竞争的规模。如果你无法真正竞争,但继续在开放环境中进行研究,你实际上可能会让情况变得更糟,因为他们可以相对容易地免费复制和立即采纳任何进展并大规模运行。
转向营利性可能会随着时间的推移创造一个更可持续的收入来源,并且凭借目前的团队,可能会吸引大量投资。
然而,从头开始构建产品会分散对AI研究的注意力,这将需要很长时间,并且不清楚一家公司是否能够"赶上"谷歌的规模,而投资者可能会施加错误的压力。
我能想到的最有前景的选择,正如我之前提到的,让特斯拉作为OpenAI的“摇钱树”。我相信与其他大型嫌疑人(例如苹果、亚马逊)的联姻将会失败,因为公司DNA不兼容。
用火箭作比喻,特斯拉已经建立了火箭的"第一级",包括整个Model 3供应链、车载计算机和持久的互联网连接。
"第二级"将是基于大规模神经网络训练的完全自动驾驶解决方案,OpenAI的专业知识可以大大加快这一进程。
如果我们在大约2-3年内真正做好了这一点,我们可以出售大量汽车/卡车。如果我们做得非常出色,运输行业足够大,可以使特斯拉的市值增加,并使用该收入以适当的规模为AI工作提供资金。
2018年2月1日,马斯克回复:
是的,完全正确。我们或许希望如此,但在我看来,特斯拉是唯一能与谷歌抗衡的道路。即便如此,与谷歌抗衡的可能性也很小,但不是0。
2018 年 12 月 26 日,来自马斯克:
在执行和资源不发生巨大变化的情况下,我对OpenAI与 Google /DeepMind的竞争评估概率为0%。而不是 1%。我希望不是这样。
即使能筹集到几亿美元也不够。这需要每年立即筹集数十亿美元,否则就算了。
不幸的是,人类的未来掌握在XXXX手中。
他们所做的远不止这些。
我真希望我错了。
好文章,需要你的鼓励
这项研究介绍了Ankh3,一种创新的蛋白质语言模型,通过多任务预训练策略显著提升了模型性能。研究者采用两种互补任务:多掩码概率的掩码语言建模和蛋白质序列补全,使模型仅从蛋白质序列就能学到更丰富的表示。实验表明,Ankh3在二级结构预测、荧光预测等下游任务中表现优异,尤其在模型未曾训练过的任务上展现出强大泛化能力,为蛋白质设计和分析开辟了新路径。
法国波尔多大学研究团队开发了一个突破性框架,用于神经退行性痴呆症的差异化诊断。该框架将3D脑部MRI转换为文本报告,并利用强化学习优化的大语言模型进行详细诊断推理。不同于传统"黑箱"方法,这一系统能生成透明、有因果关系的解释,同时保持高诊断准确率。研究显示,通过群组相对策略优化(GRPO)训练的轻量级模型能展现复杂推理行为,包括假设检验和非线性思考,提供与临床决策流程一致的排序诊断结果。
这项研究提出了CLUE框架,首次能够生成自然语言解释来揭示AI事实核查系统不确定性的来源。与现有方法不同,CLUE能识别文本片段间的冲突与一致关系,并解释它们如何影响模型的预测不确定性。实验表明,CLUE生成的解释在三种语言模型和两个事实核查数据集上都更忠实于模型不确定性,用户评价其更有帮助、信息更丰富、冗余更少且逻辑更一致。CLUE不需要微调或架构更改,适用于任何白盒语言模型,为事实核查提供了实用支持。
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。