就在Meta因AI排行榜数据泄露一事关闭其内部"Token使用量最大化"看板数日后,领英联合创始人、风险投资人里德·霍夫曼公开表态,支持这一近期在硅谷掀起热议的概念。
所谓AI Token,是指AI模型在理解提示词、生成回应时所处理的最小数据单元,同时也是衡量AI使用量、计算AI服务费用的基本计量单位。
正因如此,许多公司开始在内部追踪哪些员工消耗的Token数量最多,以此作为衡量员工AI工具使用积极性的参考指标。这种做法被称为"Token使用量最大化"——其中"最大化"一词源自Z世代俚语,意为对某件事进行极致优化,类似说法在日常口语中也有出现,如"外貌最大化"或"睡眠最大化"。
然而,科技公司的工程师们对这一指标是否能有效衡量工作效率争论不休,有人认为这无异于按员工的花销多少来给人排名。
霍夫曼本周在Semafor世界经济峰会的一次采访中,就企业拥抱AI提出了自己的建议,并表示他对这种做法持积极态度。尽管他没有使用Z世代的俚语表达,但他明确表示追踪员工的Token消耗是一个好主意。
"你应该让各个职能部门的员工都真正参与进来,去体验和探索AI,"霍夫曼在活动上表示,"有一个很值得关注的数据看板——它不一定是衡量生产力的完美指标,但可以参考——那就是大家在实际使用过程中,究竟消耗了多少Token?"
他进一步解释说,有些人或许消耗了大量Token,但使用方式比较随机或偏向探索性,因此在追踪Token使用量的同时,还需要结合了解员工具体在用Token做什么。
"有些尝试会失败——这没关系。但这正是在那个循环里的一部分,你希望有各种各样的人都在使用它,本质上是集体性的、同步进行的,"霍夫曼补充道。
霍夫曼还就企业制定AI策略分享了其他建议,提出AI应当融入整个组织的各个层面,同时建议定期举行交流会,让员工互相分享有效经验。
"我们应该建立一种机制,基本上就是每周一次的回顾会议。不必每次都是全员参与——但要以小组形式交流:'这周我们尝试了哪些AI新用法,用于个人、团队和公司效率提升?我们又学到了什么?'因为你会发现,其中有些成果真的令人惊叹,"霍夫曼说道。
Q&A
Q1:什么是Token使用量最大化,为什么硅谷公司开始关注它?
A:Token使用量最大化是指追踪员工在使用AI工具时消耗Token数量的做法,以此判断员工对AI的使用积极程度。由于Token是AI服务的基本计量和计费单位,许多公司将其视为衡量员工拥抱AI程度的参考指标。这一概念近期在硅谷引发广泛讨论,Meta甚至曾建立内部看板追踪相关数据,但因数据泄露事件而将其关闭。
Q2:Token使用量能真正反映员工的工作效率吗?
A:这一点存在争议。科技公司工程师普遍认为,Token消耗量并不能直接等同于工作效率,因为有些人消耗大量Token只是出于随机探索,而非高效产出。霍夫曼也承认这一指标并不完美,建议企业在追踪Token用量的同时,结合了解员工具体用Token在做什么,才能形成更全面的判断。
Q3:里德·霍夫曼建议企业如何推进AI落地?
A:霍夫曼建议企业将AI嵌入整个组织的各个职能部门,鼓励员工广泛参与体验和探索。他特别推荐设立每周小组回顾会议,让员工分享本周尝试了哪些AI新用法、取得了哪些成果。他认为,这种集体性、同步性的使用方式,能够帮助企业更快发现AI的实际价值。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。