Meta正在打造一个马克·扎克伯格的AI版本。据英国《金融时报》本周报道,这一数字替身将与员工互动、回答问题,并模拟这位全球最知名科技CEO之一的领导者形象。外界对此的第一反应,介于好奇与嗤之以鼻之间,情有可原。但企业高管们若就此将其一笑置之,恐怕并不明智。
更值得关注的解读是:Meta已将整个行业都在回避的问题明确摆上台面——我们所谓的"领导力",究竟有多少是真正需要人类来承担的?
"Meta用AI版扎克伯格真正测试的,不是什么新奇噱头,而是领导力本身是否可以被规模化复制、被模拟,乃至被部分转移,"职业发展咨询机构Career Nomad首席执行官、埃森哲企业AI转型与人力资源战略高级总监帕特里斯·林多表示。"大多数组织都低估了这个问题的颠覆性。"
领导力有多少是"运营性"的?
林多指出,大量被冠以"领导力"之名的工作,本质上不过是结构化沟通与信号传递——而这正是AI已经能够大规模完成的事情。跨组织层级标准化高管信息传递、整合员工情绪数据、一致性地回应常见问题,这些从来都不是人类独有的活动,只是过去没有其他选择罢了。
"这一现象揭示出,高管存在感的很大一部分本质上是运营性的,而非不可替代的,"林多说。
人力资源未来学家、Work 3 Newsletter创始人安迪·斯彭斯同样认为,领导工作中包含大量可以自动化的信息处理与信号传递。他还指出了一种普遍存在的认知误区:"我们历来将'可见性'与领导力混为一谈。"他将这种极端现象称为"企业孔雀秀"——领导者把"在场"误认为"在做事"。
这意味着,高管职位受AI侵蚀的风险,可能远超业界最初的预判。哥本哈根未来研究所科技前沿与创新总监布格·霍尔姆·汉森认为,目前大多数组织仍停留在问"我们能自动化什么""我们能增强什么"的层面,但增强只是故事的一半。当智能体AI被用于检索信息、协调任务、在无需人工反复介入的情况下与其他系统交互时,其连锁影响不容忽视。随着这一AI中介层日趋成熟,高管们可能发现自己已处于决策链条的下游——那些决策在抵达他们之前,早已被悄然塑造。
"不是被取代,而是逐步被边缘化,远离组织智能的真实流动。'参与决策的人类'在结构上,变成了'站在决策边缘的人类',"汉森警告道。
AI无法规模化替代的职能
说到这里,似乎令人忧虑。但确实存在一些抵御自动化的高管职责:问责与战略。
"AI能提出建议,但无法承担责任。而领导力的核心,是一种责任承担功能,而非仅仅是智识功能,"林多说。
在数据不完整时拍板决策、承担利弊权衡带来的得失、为决策失误承受声誉损失——这些都无法委托给任何代理,无论是数字的还是其他形式的。问责不仅对于治理与公正至关重要,对于维系组织内部信任同样不可或缺。汉森和林多都提到,AI可以模拟共情,但仅凭这一点远远不够,尤其是在危机或困境之中。
"AI无法承担道德责任,而这始终是一种深刻的人类功能,"汉森说,"当事情出了问题——危机、道德两难、艰难的重组——组织需要的不只是一个名义上负责的人,而是一个真正承受决策之重的人,让其他人能够感受到并产生共鸣。"
科技领域职业与高管教练凯尔·埃利奥特博士还指出了另一个高管可以守住的阵地:"AI能分析模式、建立情景模型、检验想法;但在面对全新情境、模糊地带、风险与信息不完整时,它无法指引方向。它需要历史数据和完整信息才能发挥最佳作用。而这,正是高管们体现自身价值的地方。"
企业尚未做好准备应对的风险
这并不是说AI高管数字替身毫无价值。高管日理万机,自动化确实能释放他们的精力。AI咨询服务机构Intelligence Briefing创始人兼首席人类智能体AI官安德烈亚斯·韦尔施举了一家全球电子企业的案例:该公司为高级管理人员打造了数字替身,供员工在开发周期中随时咨询。
在实际应用中,员工可以借助这些系统预判上司对提案的反应,并在正式会议前进行调整。
"系统已根据高管的一贯偏好和反馈习惯进行了训练,"他解释道,"这一流程确保了最常见的反馈意见在会前就已被纳入提案,从而节省高管时间、提升结果质量。"
然而,AI中介领导力带来的风险,显然不会出现在新闻稿里。这些风险并非抽象的假设。
AI中介领导力的组织风险
信息过时。有效使用数字替身的前提是训练数据准确且持续更新。韦尔施指出了他所称的"漂移"现象:当高管的数字分身基于陈旧信息运作时,其输出会悄然偏离领导者的真实现状,而依赖这一系统的员工对此毫无察觉。系统由此产生看似笃定、实则失准的输出。在时间敏感、动态变化的情境下,这种漂移可能呈指数级放大。
信任侵蚀。林多和斯彭斯提出了一个文化层面的隐忧:当员工希望与领导层进行有实质意义的互动,却被转接到AI代理时,会发生什么?这种"合成式领导接触"会逐渐侵蚀组织内的公信力与信任感——即便效率得到了提升。它还可能向员工传递出一个信号:你在高管眼中的优先级并不高,从而损害工作关系。
高管能力退化。从个人层面看,高管也可能面临意想不到的负面后果。汉森认为,认知参与度下降是一个真实存在的风险。"随着AI承接越来越多的思考工作,领导者逐渐脱离判断本身的风险日益增大——不是被迫如此,而是因为不动脑子更省事。一个总是从AI生成的选项中挑选的高管,不是在领导,而是在背书。久而久之,真正的决策权会迁移到那些设计选项的人手中,"他说。
软技能缺口。即便AI部署得当、边界明确,高管也未必能安然无虞。埃利奥特指出,随着AI吸收更多运营性工作,外界预期领导者应在沟通、辅导和情商方面有所提升以填补空缺。但他表示,许多管理者根本没有做好这种转变的准备。"人类领导力正面临日益扩大的技能缺口,"他说,"作为一名高管教练,我时常感到震惊——需要手把手教高管如何有效进行困难对话的情况,实在太普遍了。"
重新审视领导力的底层结构
随着世界逐步适应以AI为核心的运营体系,高管层将不得不直面一系列关于领导职能的全新问题。韦尔施指出,随着AI越来越多地编码高管的思维方式与行事偏好,当这位高管离职时,组织将面临一个棘手问题:谁来拥有这些机构知识?而如果AI已承担了相当比例的工作量,这个职位的价值与薪酬标准是否也应相应调整?
关键在于,不能被现状所困。面对AI冲击,主流应对方式是将人类重新定位为"监督者",但汉森认为这远远不够——它只是强化了现有结构,而没有追问这一结构是否仍然适用。在这场变革中真正驾驭自如的,不会是那些竭力捍卫既有职能的组织,而是那些能够在别人之前看见新的组织形态、并有能力付诸实践的组织。
"真正重要的,是一个组织的领导力逻辑,究竟是为正在到来的世界而建,还是为已经逝去的世界而建,"他说。
Q&A
Q1:Meta为什么要打造AI版扎克伯格?
A:Meta打造AI版扎克伯格的目的,是让这一数字替身代替真人高管与员工互动、回答问题,并模拟领导者的存在感。其背后的核心命题是:领导力究竟有多少可以被规模化复制和模拟?这一举动让整个科技行业开始正视一个长期回避的问题——高管职能中,究竟有多少真正需要人类来承担。
Q2:AI高管数字替身在企业中实际应用有什么风险?
A:主要风险包括四个方面:一是"漂移"问题,即数字替身基于过时数据运作,输出内容与高管真实想法产生偏差;二是信任侵蚀,员工被转接给AI代理而非真人领导,长期会损害组织信任;三是高管能力退化,长期依赖AI做选择会削弱领导者自身的判断力;四是软技能缺口,AI承接运营工作后,高管需要在沟通和情商上补位,但许多人并未做好准备。
Q3:哪些领导职能是AI无法替代的?
A:核心不可替代的领导职能主要包括两方面:问责与战略。AI能提出建议,但无法承担决策失误的责任;在信息不完整、情境模糊或面临道德两难时,AI也无法真正指引方向。此外,在组织危机或重大变革时刻,员工需要的是一个能真实承受决策之重的人,而非模拟共情的数字系统。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。