随着生成式人工智能浪潮的持续推进,许多企业仍在探索如何最大化利用生成式 AI 背后的大语言模型。一个重要的困境是:是选择需要许可证且使用受严格规则限制的专有大语言模型,还是选择企业可以自由定制的开源模型。
总部位于旧金山的 Pipeshift 认为,考虑到开源模型所提供的自由度和控制权,越来越多的公司会选择后者 - 但前提是他们能找到快速有效地在业务中部署开源大语言模型的方法。该初创公司今天将宣布获得 250 万美元种子轮融资,用于推出一个基础设施平台,该平台声称可以让企业更轻松地实现这一目标。
Pipeshift 联合创始人兼 CEO Arko Chattopadhyay 表示:"我们认为 2025 年将是生成式 AI 迈向生产环境的一年,工程团队将见证在内部使用开源模型的优势。这不仅提供了高度的隐私和控制,还带来了更好的性能和更低的成本 - 但这也是一个复杂且昂贵的过程,需要企业将多个组件整合在一起。"
许多企业缺乏进行这项工作所需的资源 - 时间、资金和专业知识。Pipeshift 的核心理念是提供一个一站式的编排平台。它提供预构建的功能,使企业能够在其业务中训练、部署和扩展开源大语言模型,这样就不需要大量工程师花费数周甚至数月时间来完成通常所需的繁重工作。
Chattopadhyay 认为,这种方法不仅提供便利,还提供灵活性。"我们正处在生成式 AI 可能长达 10 年的发展周期的第二年,那么在这个阶段为什么要将自己局限于单一的大语言模型呢?"他说,"我们的平台让更换模型或根据需要组合大语言模型变得更加容易。"
Chattopadhyay 与他的联合创始人 Enrique Ferrao 和 Pranav Reddy 相识于本科时期,当时三人正在从事一个得到 Nvidia、Dassault Systems 和 SICK Sensor Intelligence 支持的国防机器人项目。三人去年创立了 Pipeshift,最初与约 30 个测试版客户合作。随着 Pipeshift 继续商业化发展,其中约五分之一的客户已经升级成为正式客户。
在这些客户中,NetApp 的软件工程总监 Anu Mangaly 指出了该平台的实用性和成本效益。她说:"Pipeshift 编排现有 GPU 的能力令人印象深刻,让企业能够降低生产环境中的计算资源占用和成本,同时提供增强的用户体验,既私密又安全。"
Pipeshift 的投资者也对公司的潜力充满信心。今天的融资由 Y Combinator 和 SenseAI Ventures 领投,Arka Venture Labs、Good News Ventures、Nivesha Ventures、Astir VC、GradCapital 和 MyAsiaVC 参投。本轮融资还吸引了科技行业的多位知名天使投资人。
SenseAI Ventures 的管理合伙人 Rahul Agarwalla 表示:"企业更倾向于选择开源生成式 AI,因为它能带来隐私、模型所有权和更低成本等优势,但将生成式 AI 转移到生产环境仍然是一个复杂且昂贵的过程,需要整合多个组件。Pipeshift 的企业级编排平台通过简化部署并最大化生产吞吐量,消除了如此大规模工程投资的需求。"
Pipeshift 将利用筹集的资金完善平台 - Chattopadhyay 有信心在未来几个月完成升级,尽管他表示该平台已经大大缩短了部署时间 - 并提升企业知名度。"我们认为我们可以让这些开源模型变得更容易获取,但企业领导者需要了解什么是可能的,而不是简单地接受现有客户代表想要销售给他们的模型。"
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
北航团队开发的GeoSVR技术突破了传统3D重建方法的局限,采用稀疏体素表示和体素不确定性评估,无需依赖初始点云即可实现高精度表面重建。该方法通过智能的深度约束和体素协同优化策略,在DTU等标准数据集上取得了最佳性能,为VR/AR、文物保护、影视制作等领域提供了新的技术选择。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
Google DeepMind团队发布了EmbeddingGemma,这是一个仅有3.08亿参数的轻量级文本理解模型,却能达到7亿参数模型的性能水平。该模型在权威的多语言文本嵌入基准测试中排名第一,支持250多种语言,特别适合移动设备部署。研究团队通过创新的编码器-解码器初始化、三重损失函数训练和模型融合技术,实现了性能与效率的完美平衡,为AI技术普及化开辟了新路径。