作为 OpenAI 和其他大语言模型开发商的重要代码提供方,Turing 最近宣布完成一轮重要融资以扩展业务。该公司通过组织工程师团队为 AI 项目贡献代码——这些项目包括为 OpenAI 等公司构建大语言模型,以及为企业开发生成式 AI 应用。此轮 E 轮融资金额为 1.11 亿美元,公司估值因此翻倍达到 22 亿美元。
据 Turing 首席执行官 Jonathan Siddharth 在接受 TechCrunch 采访时表示,公司年化收入达到 1.67 亿美元,且已实现盈利。这笔资金将用于扩大客户群和拓展更多使用场景。目前,Turing 表示与全球约 400 万程序员有合作。
本轮融资由马来西亚主权财富基金 Khazanah Nasional Berhad 领投,Westbridge Capital、Sozo Ventures、Uphonest Capital、AltaIR Capital、Amino Capital、Plug and Play、MVP Ventures、Fortius Ventures、Gaingels 和 Mastodon Capital Management 参投。总部位于帕洛阿尔托的 Turing 迄今已筹集 2.25 亿美元资金。
Turing 成为 AI 公司的主要合作伙伴并非其最初的发展方向。该公司最初是一家人力资源科技创业公司,专门提供远程编程人才审核和招聘平台。在新冠疫情期间,随着全球对远程团队协作工具需求的增长,这项业务开始蓬勃发展,使公司跻身"独角兽"行列。
这种成功也引来了不同的关注。
根据 Semafor 去年的报道,Siddharth 在 2022 年被邀请到 OpenAI 开会,他原以为是讨论为该公司招募工程师的事宜。然而实际上,这是一个合作提议。OpenAI 的研究人员发现,将代码添加到训练数据集中有助于提高模型的推理能力,他们希望得到 Turing 的帮助来生成这些代码。
Siddharth 接受了这个提议,这为创业公司开启了全新的业务方向。他表示,公司现在与多家基础 AI 公司合作提供类似服务,同时也为基于这些大语言模型开发应用的公司提供支持。
这并非业务转型:Siddharth 表示,Turing 仍然从其原有的编程人才外包业务中获得可观收入,但他没有透露具体数额。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。