全球支付巨头 Visa 在 200 多个国家和地区开展业务,每个地区都有其独特而复杂的规则和法规。
当出现政策相关问题时 (比如"我们是否可以在这个国家处理这种类型的支付?"),其客户服务团队必须理解这些细微差别,但人力上无法记住所有这些答案。
这意味着他们通常必须手动追踪相关信息——这是一个耗时的过程,根据信息的可访问性,可能需要数天时间。
当生成式 AI 出现时,Visa 发现这是一个完美的应用场景,通过应用检索增强生成 (RAG) 技术不仅能将信息检索速度提高高达 1000 倍,还能追溯到信息源。
"首先,这能带来更高质量的结果," Visa 的数据和 AI 高级副总裁 Sam Hamilton 向 VentureBeat 表示,"同时也提高了效率,他们现在能处理比以前多得多的案例。"
这只是 Visa 利用生成式 AI 增强其运营的一个方面——在精心构建的分层技术栈支持下,同时管理风险并防范欺诈。
Secure ChatGPT: Visa 的受保护模型
2022 年 11 月 30 日,ChatGPT 向全世界推出的那天将被载入 AI 发展史的重要时刻。
不久之后,Hamilton 注意到,"Visa 的员工都在问:'我的 ChatGPT 在哪里?' '我可以使用 ChatGPT 吗?' '我无法访问 ChatGPT。' '我想要 ChatGPT。'"
然而,作为全球最大的数字支付提供商之一,Visa 自然对其客户的敏感数据安全性有所顾虑——特别是确保数据安全、不会进入公共领域,也不会被用于未来的模型训练。
为了满足员工需求的同时平衡这些顾虑,Visa 推出了所谓的"Secure ChatGPT",它位于防火墙后并在 Microsoft Azure 上内部运行。公司可以通过数据丢失防护 (DLP) 筛查来控制输入和输出,确保没有敏感数据离开 Visa 的系统。
"所有数百 PB 的数据,无论是静止还是传输中的数据都经过加密和安全保护," Hamilton 解释道。
虽然名为 Secure ChatGPT,但它实际上是一个提供六种不同选项的多模型接口:GPT (及其各种迭代版本)、Mistral、Anthropic 的 Claude、Meta 的 Llama、Google 的 Gemini 和 IBM 的 Granite。Hamilton 将其描述为模型即服务或 RAG 即服务。
"可以将其视为一种抽象层," 他说。
人们无需构建自己的向量数据库,可以选择最适合其特定用例的 API。例如,如果他们只需要一点微调,通常会选择像 Mistral 这样的小型开源模型;相反,如果他们需要更复杂的推理模型,可以选择 OpenAI o1 或 o3 这样的模型。
这样,人们就不会觉得受到限制或错过公共领域readily 可用的功能 (这可能导致"影子 AI",即使用未经批准的模型)。Hamilton 解释说,Secure GPT "不过是模型之上的一个外壳。现在他们可以在此基础上选择想要的模型。"
除了 Secure ChatGPT,所有 Visa 开发人员都可以访问 GitHub Copilot 来协助日常编码和测试。Hamilton 指出,开发人员使用 Copilot 和各种集成开发环境 (IDE) 插件来理解代码、增强代码并执行单元测试 (确定代码按预期运行)。
"因此有了这个助手,代码覆盖率 (识别缺乏适当测试的区域) 显著提高了," 他说。
RAG 即服务实战
Secure ChatGPT 最有效的用例之一是处理特定地区的政策相关问题。
"可以想象,在 200 个国家/地区开展业务,不同的法规文件可能有成千上万份,数十万份," Hamilton 指出。"这变得非常复杂。你需要准确把握,而且需要进行详尽的搜索。"
更不用说,当地政策会随时间变化,所以 Visa 的专家必须保持最新状态。
现在通过基于可靠、最新数据的强大 RAG,Visa 的 AI 不仅能快速检索答案,还能提供引用和源材料。"它告诉你可以做什么或不能做什么,并说,'这是你想要的文件,我基于此给出答案,'" Hamilton 解释道。"我们已经用构建到 RAG 中的知识缩小了答案范围。"
通常,这个详尽的过程需要"如果不是几小时,就是几天"才能得出具体结论。"现在我可以在五分钟、两分钟内得到答案," Hamilton 说。
Visa 的四层"生日蛋糕"数据基础设施
这些能力是 Visa 在过去 10 年中大力投资数据基础设施的结果:根据 Hamilton 的说法,这家金融巨头在其技术栈上投入了约 30 亿美元。
他将该技术栈描述为"4 层生日蛋糕":基础是"数据平台即服务"层,上面是"数据即服务"、AI 和机器学习 (ML) 生态系统以及数据服务和产品层。
数据平台即服务本质上是建立在数据湖之上的操作系统,Hamilton 解释说,该系统聚合了"数百 PB 的数据"。上面一层的数据即服务充当一种"数据高速公路",具有多个以不同速度运行的车道,为数百个应用程序提供支持。
第三层 AI/ML 生态系统是 Visa 持续测试模型的地方,以确保它们按预期方式运行,并且不容易受到偏差和漂移的影响。最后,第四层是 Visa 为员工和客户构建产品的地方。
阻止 400 亿美元欺诈
作为受信任的支付提供商,Visa 的首要任务之一是防止欺诈,而 AI 在这方面发挥的作用也越来越大。Hamilton 解释说,公司已投资超过 100 亿美元来帮助减少欺诈并提高网络安全性。最终,这帮助公司仅在 2024 年就阻止了 400 亿美元的欺诈企图。
例如,新的 Visa 深度授权工具提供交易风险评分,帮助管理非持卡人在场 (CNP) 支付 (例如用户通过网络或移动应用程序支付,这是我们所有人的日常做法)。这由基于 PB 级上下文数据的深度学习循环神经网络 (RNN) 模型提供支持。类似地,实时账户对账户支付保护 (通过数字钱包或即时支付系统) 由深度学习 AI 模型支持,这些模型产生即时风险评分并自动阻止恶意交易。
Hamilton 解释说,Visa 使用基于 Transformer 的模型 (一种通过追踪数据关系来学习上下文和含义的神经网络) 来增强这些工具,并快速识别和阻止欺诈。"我们想要在交易过程中实时完成这个工作," 他说。"这意味着我们需要不到一秒,应该说是毫秒级的响应时间。"
合成数据在欺诈防范中也发挥了作用:Hamilton 的团队用合成数据增强现有数据,以针对较新的欺诈枚举执行模拟。"这帮助我们了解现在正在发生的事情以及短期和长期可能发生的事情,所以我们可以模拟和训练模型来捕获数据," 他说。
他指出,欺诈是一场军备竞赛——威胁行为者的进入门槛很低。"我们需要领先一步,预测并阻止他们," Hamilton 强调。
好文章,需要你的鼓励
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AI虽具备变革企业洞察力的潜力,但成功依赖于数据质量。大多数AI项目失败源于数据混乱分散而非算法局限。谷歌BigQuery云数据AI平台打破数据孤岛,简化治理,加速企业AI应用。通过AI自动化数据处理,实现实时分析,并与Vertex AI深度集成,使企业能够高效处理结构化和非结构化数据,将智能商业转型从愿景变为现实。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。