随着 DeepSeek-R1 的出现,业界最初普遍担心先进的推理能力可以通过更少的基础设施实现。然而事实证明并非如此。至少根据 Together AI 的观点,DeepSeek 和开源推理的兴起产生了完全相反的效果:它不是减少而是增加了对基础设施的需求。
这种需求的增长推动了 Together AI 平台和业务的发展。今天该公司宣布完成由 General Catalyst 领投、Prosperity7 联合领投的 3.05 亿美元 B 轮融资。Together AI 于 2023 年成立,旨在简化企业使用开源大语言模型 (LLM)。该公司在 2024 年推出了 Together 企业平台,支持在虚拟私有云 (VPC) 和本地环境中部署 AI。到 2025 年,Together AI 将再次扩展其平台,增加推理集群和智能代理 AI 功能。
该公司表示,其 AI 部署平台已有超过 45 万注册开发者,业务整体同比增长 6 倍。公司客户包括企业以及 Krea AI、Captions 和 Pika Labs 等 AI 初创公司。
Together AI 的 CEO Vipul Prakash 对 VentureBeat 表示:"我们现在正在为所有模态提供服务:语言、推理、图像、音频和视频。"
DeepSeek-R1 对 AI 基础设施需求的巨大影响
DeepSeek-R1 首次亮相时具有颠覆性,原因之一是它暗示领先的开源推理模型可以用比专有模型更少的基础设施构建和部署。
然而,Prakash 解释说,Together AI 扩展其基础设施部分是为了支持 DeepSeek-R1 相关工作负载的增长需求。
"运行推理的成本相当高," 他说。"它有 6710 亿个参数,需要分布在多个服务器上。由于质量更高,高端需求通常更大,这意味着需要更多容量。"
此外,他指出 DeepSeek-R1 通常有持续 2-3 分钟的长期请求。用户对 DeepSeek-R1 的巨大需求进一步推动了对更多基础设施的需求。
为满足这一需求,Together AI 推出了名为"推理集群"的服务,提供从 128 到 2000 个芯片的专用容量,以最佳性能运行模型。
Together AI 如何帮助组织使用推理 AI
Together AI 在多个具体领域看到推理模型的应用:
编码代理: 推理模型帮助将大问题分解为步骤。
减少幻觉: 推理过程有助于验证模型输出,从而减少幻觉,这对需要准确性的应用至关重要。
改进非推理模型: 客户正在提炼和改进非推理模型的质量。
实现自我改进: 将强化学习与推理模型结合使用,使模型能够递归地自我改进,而无需依赖大量人工标注数据。
智能代理 AI 也推动 AI 基础设施需求增长
Together AI 还发现,随着用户采用智能代理 AI,基础设施需求也在增加。
Prakash 解释说,在智能代理工作流程中,单个用户请求会产生数千个 API 调用来完成任务,这给 Together AI 的基础设施带来了更多计算需求。
为支持智能代理 AI 工作负载,Together AI 最近收购了 CodeSandbox,其技术提供轻量级、快速启动的虚拟机 (VM),可在 Together AI 云中执行任意的安全代码,语言模型也驻留在那里。这可以减少智能代理代码和需要调用的模型之间的延迟,提高智能代理工作流程的性能。
Nvidia Blackwell 已产生影响,所有 AI 平台都面临需求增长。
这就是为什么 Nvidia 不断推出提供更高性能的新芯片的原因之一。Nvidia 最新的产品芯片是 Blackwell GPU,目前正在 Together AI 部署。
Prakash 表示,Nvidia Blackwell 芯片比上一代贵约 25%,但性能提升了 2 倍。配备 Blackwell 芯片的 GB 200 平台特别适合训练和推理专家混合 (MoE) 模型,这些模型跨多个 InfiniBand 连接的服务器进行训练。他指出,与小型模型相比,Blackwell 芯片预计将为大型模型的推理提供更大的性能提升。
智能代理 AI 的竞争格局
AI 基础设施平台市场竞争激烈。
Together AI 面临着来自成熟云服务提供商和 AI 基础设施初创公司的竞争。所有超大规模云服务商,包括 Microsoft、AWS 和 Google,都有 AI 平台。还有一类新兴的 AI 专注玩家,如 Groq 和 Samba Nova,都在争夺这个利润丰厚的市场。
Together AI 提供全栈解决方案,包括带有软件平台层的 GPU 基础设施。这使客户能够轻松使用开源模型或在 Together AI 平台上开发自己的模型。该公司还专注于研究开发优化和加速运行时,用于推理和训练。
"例如,我们服务的 DeepSeek-R1 模型速度为每秒 85 个 token,而 Azure 为每秒 7 个 token," Prakash 说。"在性能和成本方面,我们能够为客户提供的差距正在不断扩大。"
好文章,需要你的鼓励
Anthropic发布SCONE-bench智能合约漏洞利用基准测试,评估AI代理发现和利用区块链智能合约缺陷的能力。研究显示Claude Opus 4.5等模型可从漏洞中获得460万美元收益。测试2849个合约仅需3476美元成本,发现两个零日漏洞并创造3694美元利润。研究表明AI代理利用安全漏洞的能力快速提升,每1.3个月翻倍增长,强调需要主动采用AI防御技术应对AI攻击威胁。
NVIDIA联合多所高校开发的SpaceTools系统通过双重交互强化学习方法,让AI学会协调使用多种视觉工具进行复杂空间推理。该系统在空间理解基准测试中达到最先进性能,并在真实机器人操作中实现86%成功率,代表了AI从单一功能向工具协调专家的重要转变,为未来更智能实用的AI助手奠定基础。
Spotify年度总结功能回归,在去年AI播客功能遭遇批评后,今年重新专注于用户数据深度分析。新版本引入近十项新功能,包括首个实时多人互动体验"Wrapped Party",最多可邀请9位好友比较听歌数据。此外还新增热门歌曲播放次数显示、互动歌曲测验、听歌年龄分析和听歌俱乐部等功能,让年度总结更具互动性和个性化体验。
这项研究解决了现代智能机器人面临的"行动不稳定"问题,开发出名为TACO的决策优化系统。该系统让机器人在执行任务前生成多个候选方案,然后通过伪计数估计器选择最可靠的行动,就像为机器人配备智能顾问。实验显示,真实环境中机器人成功率平均提升16%,且系统可即插即用无需重新训练,为机器人智能化发展提供了新思路。