OpenAI 的竞争对手 Anthropic PBC 今天宣布完成一轮 35 亿美元的后期融资,估值达到 615 亿美元。
这轮 E 轮融资距离公司从 Google LLC 获得的 10 亿美元投资不到两个月。在此之前两个月,Amazon.com Inc. 将其在 Anthropic 的投资翻倍至 80 亿美元。去年 9 月,Amazon Web Services 成为该人工智能公司的主要云服务提供商。
Lightspeed Venture Partners 领投了 Anthropic 的最新一轮融资。Cisco Investments、Salesforce Ventures 以及超过六家其他投资方参与其中。据信,Anthropic 最初计划融资 20 亿美元,但由于投资者兴趣浓厚而提高了融资目标。
本轮投资紧随 Anthropic 发布其最新且最强大的大语言模型 Claude 3.7 Sonnet 之后。该模型结合了标准大语言模型和推理模型的特点。Anthropic 表示,这个算法在数学、物理和编程方面的表现显著优于其前代产品。
Claude 3.7 Sonnet 的一个主要特点是开发者可以自定义其任务处理时间。如果需要快速生成答案,开发团队可以将模型的思考时间限制在几秒钟内。对于复杂任务,这个限制可以延长到几分钟或更长。
Claude 3.7 Sonnet 与另一个名为 Claude Code 的新产品一同推出。后者被描述为一个主动式编程工具。Anthropic 表示,这款嵌入命令行界面的软件可以自动化完成通常需要超过 45 分钟手动操作的编程任务。
公司今天表示,将利用这轮 E 轮融资进一步增强其 AI 系统。为支持这一努力,公司将采购更多算力。Anthropic 使用由 AWS 自主研发的 Trainium 和 Inferentia 芯片驱动的 AWS 实例来支持其模型开发工作。
上个月,Anthropic 透露其近期开发路线图将优先提升 Claude Code。公司计划增强该工具与代码仓库等外部系统的交互能力。此外,Anthropic 还将为该工具配备更好的"自我能力认知"。
公司还将利用部分新资金支持机制可解释性研究。这是一种揭示大语言模型如何做出决策的方法。在去年发表的一篇论文中,Anthropic 详细介绍了其研究人员如何使用该方法研究早期版本的 Claude 如何表达概念。公司希望通过更好地理解大语言模型处理数据的方式,找到使其更安全的方法。
Anthropic 首席财务官 Krishna Rao 表示:"这笔投资将推动我们开发更智能、更强大的 AI 系统,扩展人类能力的同时深化我们对这些系统工作原理的理解。"
与研究工作同步,Anthropic 将启动国际扩张计划。上个月,公司聘请了一位前 Google DeepMind 研究科学家来领导其在苏黎世的新办公室。此前,公司已在爱尔兰都柏林开设了分支机构。
据 Bloomberg 报道,公司去年的年化经常性收入超过 10 亿美元。据报道,这一数字在过去两个月增长了 30%。尚未盈利的 Anthropic 通过类似 OpenAI 的聊天机器人和允许开发者将 Claude 嵌入其应用程序的应用程序编程接口获得收入。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。