作为 OpenAI 和其他大语言模型开发商的重要代码提供方,Turing 最近宣布完成一轮重要融资以扩展业务。该公司通过组织工程师团队为 AI 项目贡献代码——这些项目包括为 OpenAI 等公司构建大语言模型,以及为企业开发生成式 AI 应用。此轮 E 轮融资金额为 1.11 亿美元,公司估值因此翻倍达到 22 亿美元。
据 Turing 首席执行官 Jonathan Siddharth 在接受 TechCrunch 采访时表示,公司年化收入达到 1.67 亿美元,且已实现盈利。这笔资金将用于扩大客户群和拓展更多使用场景。目前,Turing 表示与全球约 400 万程序员有合作。
本轮融资由马来西亚主权财富基金 Khazanah Nasional Berhad 领投,Westbridge Capital、Sozo Ventures、Uphonest Capital、AltaIR Capital、Amino Capital、Plug and Play、MVP Ventures、Fortius Ventures、Gaingels 和 Mastodon Capital Management 参投。总部位于帕洛阿尔托的 Turing 迄今已筹集 2.25 亿美元资金。
Turing 成为 AI 公司的主要合作伙伴并非其最初的发展方向。该公司最初是一家人力资源科技创业公司,专门提供远程编程人才审核和招聘平台。在新冠疫情期间,随着全球对远程团队协作工具需求的增长,这项业务开始蓬勃发展,使公司跻身"独角兽"行列。
这种成功也引来了不同的关注。
根据 Semafor 去年的报道,Siddharth 在 2022 年被邀请到 OpenAI 开会,他原以为是讨论为该公司招募工程师的事宜。然而实际上,这是一个合作提议。OpenAI 的研究人员发现,将代码添加到训练数据集中有助于提高模型的推理能力,他们希望得到 Turing 的帮助来生成这些代码。
Siddharth 接受了这个提议,这为创业公司开启了全新的业务方向。他表示,公司现在与多家基础 AI 公司合作提供类似服务,同时也为基于这些大语言模型开发应用的公司提供支持。
这并非业务转型:Siddharth 表示,Turing 仍然从其原有的编程人才外包业务中获得可观收入,但他没有透露具体数额。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
Meta公司FAIR实验室与UCLA合作开发了名为HoneyBee的超大规模视觉推理数据集,包含250万训练样本。研究揭示了构建高质量AI视觉推理训练数据的系统方法,发现数据质量比数量更重要,最佳数据源比最差数据源性能提升11.4%。关键创新包括"图片说明书"技术和文字-图片混合训练法,分别提升3.3%和7.5%准确率。HoneyBee训练的AI在多项测试中显著超越同规模模型,同时降低73%推理成本。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
上海AI实验室团队提出ViCO训练策略,让多模态大语言模型能够根据图像语义复杂度智能分配计算资源。通过两阶段训练和视觉路由器,该方法在压缩50%视觉词汇的同时保持99.6%性能,推理速度提升近一倍,为AI效率优化提供了新思路。