方舟投资(Ark Invest)的 CEO 凯西·伍德(Cathie Wood)参与了一档雅虎财经(Yahoo Finance)组织的访谈节目,节目中,凯西详细介绍了投资人工智能包括投资OpenAI的一些观点和态度。
方舟投资由凯西·伍德于2014年创立,总部位于美国纽约。方舟投资专注于创新技术领域的投资,其投资策略主要围绕颠覆性创新。OpenAI 在最新一轮融资中筹集了 66 亿美元,估值约为 1,570 亿美元,方舟投资参与了该轮融资,并承诺向OpenAI投资大约2.5亿美元,目前,OpenAI约占方舟投资总资产的5%。
方舟投资的首席执行官兼首席信息官凯西对人工智能下了很大的赌注。她说,OpenAI、Anthropic、xAI、谷歌和Meta正在该领域 “抢占先机”。虽然许多投资者担心这些公司何时才能开始看到人工智能投资的回报,但凯西却充满信心。
当被主持人问及如何看待人工智能这个领域和当前市场的竞争格局时,凯西将AI的发展比作早期的铁路或电力。她指出,在这些技术发展的早期阶段,有许多公司参与其中,但最终大多数都破产了。她认为与历史上的情况相比,当前AI领域的发展更为清晰,因为只有少数几家公司拥有推动这一巨大机会向前发展的实力和战略眼光。
这些公司在全球范围内同时进行,且发展速度非常快。她认为,这种快速发展为AI领域带来了极大的清晰度,并且她对那些能够引领这一趋势的公司持乐观态度。她的信心还建立在对这些公司领导者的信任上,她认为这些领导者非常具有远见,并且周围有优秀的商业人才。
她对AI技术的未来应用和商业模式持开放态度,她相信通用人工智能(AGI)和代理人工智能(Agentic AI)技术将带来高价值的服务,并且能够显著提高收费,从而为投资的公司带来盈利。
当被主持人问及因为有像你这样的人愿意给他们提供资金,所以他们有能力构建这些模型。作为投资者,你何时会对像OpenAI这样的公司施加压力,要求它们开始盈利的问题时,凯西说道,OpenAI的营收正在以每年大约三倍的速度增长。根据预测,OpenAI明年的营收可能会达到大约110亿美元,后年可能达到大约260亿美元。她对OpenAI的财务前景持乐观态度,认为OpenAI不仅能够快速增长,而且能够迅速实现盈利。
OpenAI目前拥有大约2.5亿周活跃用户和1100万付费用户。她认为,随着通用人工智能(AGI)的发展,用户会愿意为高价值的AI服务支付更高的费用,比如每月1000到2000美元。这种预期的商业模式转变和收入增长是她对OpenAI财务前景持乐观态度的原因之一。
当被问及对OpenAI的信心有多少是基于对Sam Altman的信心时,凯西表达了对Sam Altman以及OpenAI管理团队的高度信任。她认为,对OpenAI的信心很大程度上取决于对Sam Altman这样的有远见的领导者及其团队的信心。她强调了优秀的管理团队对于公司快速从初创阶段过渡到规模化阶段的重要性。
她对OpenAI的CTO Mira离开公司并不感到意外,并且对新任CFO Sarah Fryer的加入表示赞赏。凯西表示,她一直关注Sarah Fryer的职业生涯,从她在高盛的时期开始,一直到Salesforce和Block,认为她是一位杰出的领导者。因此,Sarah Fryer的加入对OpenAI来说意义重大。
当被主持人问到“有报道称,OpenAI的最新一轮融资要求投资者不要投资竞争对手公司。你能对此发表评论吗?”凯西提到了《金融时报》发表了一篇关于OpenAI最新一轮融资的文章,其中提到了一些限制条件,比如要求投资者不要投资于竞争对手公司。然而,她明确表示,这些报道对方舟投资来说并不属实。她指出,方舟投资已经持有Anthropic和xAI的股份,因此报道中的限制对她们并不适用。
凯西表达了她对竞争的看法,她认为竞争对于AI领域的发展是有益的。她提到,尽管存在一些历史上的个人关系和个性冲突,例如Elon Musk离开OpenAI并创建了自己的公司,但她认为这些公司之间的竞争是积极的。这些公司不必在同一个组织内,并且能够相互竞争,这有助于推动整个AI领域更快、更有效地发展。她强调,竞争能够激发创新,推动公司专注于他们的工作,并最终导致更好的产品和服务。
当被问及“你认为Sam Altman和OpenAI最终会进行IPO吗?”,凯西指出,许多公司选择更长时间保持私有化,主要是为了避免公共股票市场的监管。她解释说,这些公司不想处理公共股票市场上的监管要求,同时,也不想应对公共股票市场股东的短期投资视角。
然而,凯西也提到了一种转变,她认为随着公共市场开始变得更加友好,特别是当风险偏好增加和利率下降时,公共市场对创新型公司的吸引力会增加。她暗示,当公共市场变得更加适应长期投资视角时,IPO(首次公开募股)将变成一个有吸引力的选择。
好文章,需要你的鼓励
UniR(Universal Reasoner)是一种创新的推理增强方法,可为冻结的大语言模型提供即插即用的推理能力。由韩国科学技术院研究团队开发,该方法将推理能力分解为独立的轻量级模块,无需改变主模型结构。UniR的核心优势在于高效训练(仅更新小型推理模块)、出色的模型间迁移能力(小模型可指导大模型)以及模块组合能力(多个专用模块可通过logits相加组合使用)。在数学推理和翻译测试中,UniR显著超越现有微调方法,展示了轻量级模块如何有效增强大语言模型的推理能力。
Nebius团队开发了SWE-rebench,一个自动化管道用于从GitHub收集软件工程任务并进行去污染评估。该系统解决了两大挑战:高质量训练数据稀缺和评估基准容易被污染。通过四阶段处理(初步收集、自动安装配置、执行验证和质量评估),SWE-rebench构建了包含超过21,000个Python交互式任务的数据集,并提供持续更新的评估基准。研究发现部分语言模型在传统基准上的表现可能被污染效应夸大,而DeepSeek模型在开源模型中表现最为稳健。
这项研究提出了JQL(发音为"Jackal"),一种通过多语言方法提升大型语言模型预训练数据质量的创新系统。研究团队从拉马尔研究所等机构通过四阶段方法解决了多语言数据筛选的难题:先由人类评估内容教育价值创建基准数据,然后评估大型语言模型作为"评判者"的能力,接着将这些能力提炼到轻量级评估器中,最后应用于大规模数据筛选。实验表明,JQL在35种语言上显著优于现有方法,甚至能泛化到未见过的语言如阿拉伯语和中文,为多语言AI发展提供了高效可靠的数据筛选方案。
浙江大学和西湖大学研究团队开发的Styl3R实现了艺术风格化3D重建的重大突破,能在不到一秒内从少量未标定照片和任意风格图像创建具有多视角一致性的3D艺术场景。通过创新的双分支网络架构将结构建模与外观着色分离,系统不仅保持了原始场景结构,还准确捕捉了参考风格特征。与现有方法相比,Styl3R在处理速度和视觉质量上均显著领先,为创意内容制作开辟了全新可能。