新兴支付初创公司Lava Payments计划挑战支付巨头,为现代互联网构建解决方案,让AI智能体能够为客户处理交易。创始人Mitchell Jones在离开其此前由Y Combinator支持的金融科技初创公司Lendtable后开始实验AI技术时产生了这个想法。
Jones看到了构建一个让AI和智能体支付更简单、对开发者更友好的系统的潜力。在实验AI应用并试图构建他认为简单的东西时,他意识到自己在构建一个基本的表单填写智能体时很快就花费了超过400美元。
"我不断遇到同样的问题,"他告诉TechCrunch。"我一再使用相同的底层模型和工具,但通过不同的包装器或平台。"每次,他都必须开始新的订阅,重新认证并单独付费,"即使我已经为访问核心模型付费了。"
"这感觉根本就是有问题的,"他继续说道。"我不想在不同包装器下重复购买同一个东西的访问权限。我想要的是一个单一钱包、一套积分,以及在工具和提供商之间无需每次重新开始就能移动的能力,这样我就可以为我使用的东西付费。"
他决定推出Lava Payments作为解决方案。
Lava是一个数字钱包,让商家使用使用积分来促进交易。这个想法是,一套在商家和服务之间通用的积分让自主智能体更容易在无需人工干预的情况下进行支付。它的工作原理是:商家可以为客户启用Lava钱包并向其中充值(积分)。一旦客户这样做,他们就可以在任何也接受Lava的商家以及任何基础模型(如GPT和Claude)中以"按使用付费"的方式使用这些钱,Jones说。
因此,用户无需为每个工具付费,而是购买一次性使用积分,AI智能体在执行各种任务时可以直接扣费。不再需要要求用户一次又一次地批准交易。
"没有Lava,智能体无法在互联网上顺畅移动,因为在需要付费时它们会不断被阻止,"他说。他以谷歌为例,说每次用户打开谷歌地图时,他们不必为那张地图向谷歌付费,因为他们已经向Verizon和AT&T付费来访问互联网。
周三,这家初创公司宣布完成由Lerer Hippeau领投的580万美元种子轮融资。
这个领域的其他公司包括Metronome等初创公司。
"我们认为世界是非常相互关联的,"Jones在谈到他的产品的不同之处时说。"我们真正专注的是为智能体原生经济构建[解决方案]。"
Jones出生在俄亥俄州代顿的一个工人家庭,他说父母总是告诉他成功的最好方法是努力工作、存钱和接受良好教育。
"你知道,大多数人都被告知的那些事情,"他在与TechCrunch交谈时回忆道。
Jones将这个建议铭记在心。他接受了良好的教育(耶鲁大学),找到了一些好工作(高盛、Meta),然后创立了一些公司(金融科技公司Parable和Lendtable,后者是YC S20项目)。
Jones说他遇到了Lava的主要投资者,因为他与现在Lerer Hippeau的投资者Will McKelvey是高中同学。他说McKelvey一直在关注他的职业生涯,并总是想有朝一日能一起合作,而Lava Payments就是那个时机。
本轮其他投资者包括Harlem Capital、Streamlined Ventures和Westbound。新资金将用于招聘、产品构建和制定市场推广策略。
总的来说,Jones准备让Lava成为"为AI网络提供动力的无形层",特别是随着AI智能体越来越多地出现在结账环节。
"我们应该让智能体能够无摩擦地移动、交易和构建,"他说。
"我们希望确保AI是每个人都能使用的东西,甚至像我这样来自代顿的孩子也能使用。"
Q&A
Q1:Lava Payments是什么?它解决了什么问题?
A:Lava Payments是一个数字钱包解决方案,专门为AI智能体经济设计。它解决了AI智能体在进行支付时需要不断重新认证和单独付费的问题,让用户可以用一套积分在多个商家和服务之间无缝支付。
Q2:Lava数字钱包是如何工作的?
A:Lava数字钱包让商家为客户启用钱包功能并充值积分。客户充值后,可以在任何接受Lava的商家以及基础模型(如GPT和Claude)中按使用量付费,AI智能体可以直接扣费执行任务,无需每次都要求用户批准。
Q3:Lava Payments获得了多少融资?投资者有哪些?
A:Lava Payments获得了580万美元的种子轮融资,由Lerer Hippeau领投。其他投资者包括Harlem Capital、Streamlined Ventures和Westbound。资金将用于招聘、产品开发和市场推广策略制定。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。