Barclays 已与公共云巨头 Microsoft 签署协议,根据该协议,后者的生成式 AI 工具 Copilot 将在全球范围内部署给该行 100,000 名员工。
这家银行业巨头计划将 Microsoft 365 Copilot 集成到其内部员工生产力工具中,以创建一个统一的 AI 代理,为员工提供一站式访问其丰富数字服务生态系统的能力。
这些数字服务包括协作工具、员工门户和在线资源,这些都是员工完成工作所必需的,Barclays 声称此举将提升生产力。
在一篇博客文章中,Microsoft 表示,该协议将使 Barclays 员工能够访问其多种 AI 产品。其中包括由 Copilot 驱动的 Colleague AI Agent 工具,旨在帮助员工预订商务出行、检查政策合规性以及解决与人力资源相关的问题。
此外,还有一个个性化的语义内容搜索工具,帮助员工根据其用户档案在特定位置查找相关信息;另一个名为 Colleague Front Door,被宣传为通过员工体验平台 Microsoft Viva 访问的代理仪表盘,Barclays 员工将利用其预定年假,并接收来自公司各地的个性化新闻和公告。
Barclays 集团 CIO 兼副集团联席首席运营官 Craig Bright 表示,该公司及其员工已经熟练使用 AI 工具,但通过扩大技术的应用以涵盖生成式 AI,他们正在寻求额外的提升和改进。
他说:“在 Barclays,我们一直在利用 AI 的力量,现在更是通过生成式 AI 推动更深入的洞察力、提升效率并在整个组织内创造更直观的体验。”
事实上,Benchmarking 公司 Evident 的一份报告(2025 年 4 月由 Computer Weekly 报道)确认,Barclays 是银行业中第十大 AI 人才招聘者。
Bright 继续说:“我们推出与同事生产力工具集成的 Copilot,是简化我们工作方式的重要一步,使工作更易完成。”
关于 Microsoft 与 Barclays 达成的这项协议的消息上周由新闻网站 Bloomberg 报道,当时 Microsoft 首席商务官 Judson Althoff 在一次公司全员会议中透露了这项部署涉及 100,000 个席位的细节。
该报道声称,Barclays 是 Microsoft 推崇的几大知名品牌之一,此前已经与 Microsoft 签署了类似规模的 Copilot 相关协议,其中还包括 Volkswagen、Siemens 和 Toyota 等公司。
在此之前,Barclays 已对 15,000 名员工开展了 Microsoft 365 Copilot 的试点部署。
这项协议标志着两家公司技术合作伙伴关系的进一步加深,此前双方曾宣布 Barclays 已将 Microsoft Teams 定为其首选协作平台。
Microsoft UK 首席执行官 Darren Hardman 表示,该公司一直以“创新者”自居,在银行业中“拥抱新技术浪潮”,以更好地服务其客户和员工。
他继续说道:“将 Microsoft 365 Copilot 作为 Barclays AI 的用户界面,将助力其实现将 AI 赋能于每位员工的宏伟愿景,我们期待与 Barclays 紧密合作,帮助其员工最大限度地受益于这一颠覆性技术。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。