企业必须从传统的资质导向员工管理模式转向技能导向策略,才能成功将新一代人工智能智能体融入到员工队伍中,Workday一位高级主管表示。
Workday亚太和日本地区现场运营集团副总裁Fabio Tiviti在最近接受Computer Weekly采访时表示,随着AI智能体变得更加普及,它们应该被视为具有特定技能和能力的"数字员工"。
"你的员工队伍中将包含人类和数字智能体,它们需要共存,"Tiviti说。"因此,你需要像对待人类一样对待数字员工。"
这意味着需要将AI智能体纳入完整的员工管理生命周期。"你需要寻找它们,让它们入职,培训它们,还需要制定继任计划。你需要它们发展跨职能技能,有时也需要让它们离职,"他补充道。
Tiviti警告说,如果不转向技能导向策略,AI可能会被视为威胁而非组织人力资源的增强工具。"它可能被认为是在取代人类,这绝对不是我们设想的发展方向,"他说。
管理这种新型混合团队的核心是治理。Tiviti强调需要"一个统一的记录系统"来管理人类员工和不断增长的AI智能体群,无论这些智能体是内部开发还是从第三方提供商集成。
"如果你没有一个统一的记录系统来连接你的内部智能体以及你无法控制的第三方智能体,那么从治理角度管理你的员工队伍是不可能的,"他说。
向技能导向模式的转变已经在进行中。引用一项涵盖2300多名商业领袖的全球调查,Tiviti指出,新加坡超过40%的公司已经开始采用技能导向策略,其中大约60%已经报告了诸如促进创新等益处。
然而,他承认变革管理仍然是一个重大障碍,近一半的调查受访者(49%)将其视为采用的关键阻碍。
对于刚开始使用AI智能体的组织,Tiviti建议首先自动化单调、重复性的任务,以释放员工从事更具战略性的工作。他还强调了人类监督的重要性,特别是在招聘等敏感领域,补充说智能体的作用是增强人类决策。
"智能体不是为了取代招聘人员和招聘经理,"Tiviti说。"智能体的作用是促进、加速流程并提供一些高级建议,与人类协同工作。这几乎是我们开发的所有基于角色的智能体的核心。"
Workday的基于角色的智能体配备了特定技能,例如用于招聘或财务审计,同时具备理解组织内工作职能复杂性的能力来提高生产力,Tiviti说。例如,他指出Workday的招聘智能体已被证明能将招聘人员的能力提高54%,将招聘经理的审查时间减少35%。
最终,Tiviti认为拥有前瞻性的AI策略将是人才争夺战中的关键,因为顶尖候选人会倾向于那些将AI深思熟虑地融入其文化的公司。
"我认为市场上的顶尖人才会加入那些已经开始AI之旅的公司,"Tiviti说。"他们希望看到公司拥有包含员工和AI智能体的员工队伍策略,这将成为一个差异化因素。"
Workday一直在定位自己来管理人类和数字员工的混合团队,最近推出了新功能来帮助客户集成和管理第三方AI智能体。
在其DevCon 2025会议上宣布的Workday智能体合作伙伴网络和智能体网关,将使组织能够将来自埃森哲、微软、谷歌云和亚马逊网络服务等合作伙伴的AI智能体直接连接到Workday的智能体记录系统中。这创建了一个单一控制平面来管理多样化的智能体群,确保它们安全运行并符合业务目标。
智能体网关将在2025年底向早期采用者开放,使用共享协议,包括模型上下文协议(MCP)和智能体间协议(A2A),允许Workday及其合作伙伴构建的智能体之间进行无缝通信。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。