就在将首只风险投资基金上市仅两个月后,Robinhood正在筹备推出第二只基金。该公司已为RVII提交了保密注册申请,这是一个标准监管步骤,允许其在公开详情之前完成审批流程。
与首只基金不同,后者目前持有10家后期公司的股权——包括Airwallex、Boom、Databricks、ElevenLabs、Mercor、OpenAI、Oura、Ramp、Revolut和Stripe——RVII将覆盖更广泛的范围,投资成长期和早期初创企业。这是一个重要区别,因为早期初创企业更年轻、风险更高,但同时也具备更大的回报潜力。
Robinhood在一篇博客文章中表示,RVII的募资目标尚未确定。在首只基金中,Robinhood原本希望募集10亿美元,但最终缺口达数亿美元。
尽管未达目标,首只基金的表现依然强劲。RVI是Robinhood首只在纽约证券交易所上市基金的股票代码,今年3月初以每股21美元的价格上市,此后股价翻超一倍,周一收盘报43.69美元。市场对该基金旗下初创企业AI前景的热情,可能是推动股价上涨的重要因素。
两只基金背后的理念都旨在填补长期以来投资初创企业的机会鸿沟。根据联邦法规,只有"合格"投资者——即净资产超过100万美元或年收入超过20万美元的人——才能向私人公司投资。这使得普通投资者历来被排除在企业成长最早、最具价值的阶段之外。RVI以及现在的RVII,正是为了改变这一局面,让任何人都能通过普通经纪账户投资一组私人初创企业的投资组合。
"你可以将Robinhood Ventures理解为一家具有每日流动性的上市风险投资公司,没有资质要求,也不收取利润分成。"Robinhood首席执行官Vlad Tenev上周在《华尔街日报》"万物未来"峰会的采访中表示。每日流动性意味着股票可以在任何交易日买卖,而传统风险投资基金的资金往往锁定长达数年。不收取利润分成,意味着Robinhood不会像传统风险投资公司那样从投资收益中抽成。
过去几年间,最具价值的AI初创企业已从早期押注成长为估值数百亿乃至数千亿美元的公司,而几乎所有的价值增长都发生在私募市场,大多数投资者根本无缘参与。
Tenev的长远愿景更为深远。他在峰会上表示:"我们的目标是,当一家公司进行种子轮和A轮融资时——也就是最初的资本募集阶段——零售投资者应该占据该轮融资的很大比例,就像如今在公开市场中的情形一样。我们应该让这些人从最底层开始参与,让他们真正受益于私募市场中日益增长的价值升值。"
如果这一愿景得以实现,将从根本上改变初创企业早期融资的方式——零售投资者最终将与风险投资机构并肩而立,甚至参与到回报最为丰厚、同时也可能损失最大的最早期轮次投资中。
Q&A
Q1:Robinhood第二只基金RVII和第一只基金RVI有什么区别?
A:RVI主要投资后期阶段公司,目前持有OpenAI、Stripe等10家知名企业股权;而RVII将覆盖范围扩展至成长期和早期初创企业,风险更高但潜在回报也更大。此外,RVII的募资目标尚未公布,而RVI原计划募集10亿美元,最终未达目标。
Q2:普通人如何通过Robinhood投资私人初创企业?
A:通过Robinhood发行的RVI或RVII基金,普通投资者无需成为"合格投资者",只需拥有普通经纪账户即可参与投资。这些基金在纽约证券交易所上市交易,具有每日流动性,且Robinhood不收取利润分成,降低了普通人参与私募市场的门槛。
Q3:RVI上市后表现如何?
A:RVI于2025年3月初以每股21美元的价格在纽约证券交易所上市,此后股价持续上涨,周一收盘报43.69美元,涨幅超过一倍。市场普遍认为,投资者对基金持仓企业在AI领域发展前景的强烈预期,是推动股价大幅上涨的主要动力。
好文章,需要你的鼓励
无人机食品配送服务商Flytrex与全球知名披萨连锁品牌Little Caesars宣布合作,推出全新Sky2无人机,最大载重达4公斤,可一次配送两个大披萨及饮料,满足全家用餐需求。Sky2支持最远6.4公里的配送范围,平均从起飞到送达仅需4.5分钟。首个试点门店已在德克萨斯州怀利市上线,并实现与Little Caesars订单系统的直接集成。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
法国社会住房项目ViliaSprint?已正式完工,成为欧洲最大的3D打印多户住宅建筑,共12套公寓,建筑面积800平方米。项目由PERI 3D Construction使用COBOD BOD2打印机完成,整体工期较传统建造缩短3个月,实际打印仅用34天(原计划50天),现场操作人员从6人减至3人,建筑废料率从10%降至5%。建筑采用可打印混凝土,集成光伏板及热泵系统,能源自给率约达60%。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。