Relyance AI 是一家数据治理平台提供商,去年十月在 B 轮融资中获得 32.1 million 美元资金,现推出一项新解决方案,旨在解决企业采用 AI 过程中最紧迫的挑战之一 —— 准确了解数据如何在复杂系统中流动。
该公司今天宣布推出的新平台 Data Journeys 针对企业在实施 AI 时存在的一个关键盲点,即不仅追踪数据存储位置,更追踪数据在应用程序、云服务和第三方系统中的使用方式及原因。
Relyance AI 首席执行官兼联合创始人 Abhi Sharma 在接受 VentureBeat 独家采访时表示:“我们的基本前提是确保客户能够获得一种原生 AI、具备上下文感知的、非常直观的数据全程视图,涵盖其在各个应用、服务、基础设施以及第三方之间的数据流动。这样就能探究数据处理背后的根本原因,而这正是实现全面 AI 治理所必需的基础层。”
这一推出正值企业 AI 治理的关键时刻。随着各公司加速实施 AI,他们面临着来自全球监管机构日益增大的压力。超过四分之一的《财富》500 强公司在提交给 SEC 的文件中将 AI 监管视为风险,仅 2024 年 GDPR 相关罚款就高达 12 亿欧元 ( 按当前汇率约 12.6 亿美元 ).
How Data Journeys tracks information flow where others fall short Data Journeys 如何在他人不足之处追踪信息流
该平台标志着传统数据谱系方法的重要进化 —— 传统方法通常仅在特定系统内以表对表或列对列的方式追踪数据流动。
Sharma 解释道:“目前数据谱系的现状基本上是表对表及列级谱系。我可以看到数据在我的 Snowflake 实例或 S3 存储桶内如何移动。但没人能回答:它最初来自何处?在数据管道、第三方供应商、API 调用以及 RAG 架构之间经历了哪些细微的转换,最终才落到这里?”
Data Journeys 的目标是提供这一全面视图,展示从数据最初采集到每一次转换及使用案例的完整生命周期。该系统从代码分析入手,而不仅仅是连接到数据存储库,从而提供数据为何以特定方式被处理的上下文信息。
CHG Healthcare 隐私管理主任兼隐私官 Heather Allen 表示:“AI 的承诺同时伴随着对于数据使用方式的重大问责。看过 Relyance AI 的 Data Journeys 后,我们立即认识到它有可能彻底改变我们对负责任 AI 开发的方式。它自动化、具备上下文感知的数据谱系能力能够解决我们最紧迫的问题,这正是我们在支持全球 AI 治理框架方面所寻求的解决方案。”
Four business problems that data visibility promises to solve 数据可见性有望解决的四个业务问题
Sharma 表示,Data Journeys 在四个关键领域中体现了价值:
首先是合规及风险管理:Sharma 说:“如今,您需要对数据处理的完整性进行担保,但却无法看到内部详情,实际上是盲目治理。” 该平台使组织在面对监管审查时得以证明其数据实践的完整性。
其次是精确的偏差检测:企业不仅仅分析用于训练模型的直接数据集,而是可以追踪潜在偏差的源头。Sharma 指出:“偏差往往在推理阶段发生,而非单纯由于数据集中存在偏差。关键在于,其实问题不在于数据集本身,而在于数据所经历的流转过程。”
第三是可解释性与问责制:对于贷款审批或医疗诊断等高风险的 AI 决策,了解完整的数据来源变得至关重要。Sharma 解释道:“这些原因非常重要,在很多情况下,模型的不当行为完全取决于它在推理前所经历的多个步骤。”
最后是监管合规:该平台提供了 Sharma 所称的“数学证明点”,以证明企业正在适当使用数据,从而帮助它们应对日益复杂的全球监管要求。
From hours to minutes: Measurable returns on better data oversight 从数小时到数分钟:更佳数据监督带来的可量化回报
Relyance 声称该平台能够带来可量化的投资回报。Sharma 表示,客户在合规文档与证据收集方面节约了 70-80% 的时间。他所称的“确定时间” —— 即快速回答特定数据如何被使用的问题的能力 —— 已由数小时缩短至数分钟。
在 Sharma 分享的一个例子中,一家直面消费者的公司正在将支付处理器从 Braintree 切换到 Stripe。负责该项目的一名工程师无意中编写的代码,将信用卡信息以明文存储在 Snowflake 中的错误列名下。
Sharma 表示:“我们在代码提交时就捕捉到了这一问题。” 如果没有 Data Journeys 对数据流的可视化展示,这一潜在的安全事故可能会被延迟发现。
Keeping sensitive data inside your walls: The self-hosted option 将敏感数据保留在内部:自托管选项
除了 Data Journeys 之外,Relyance 还推出了 InHost —— 一种自托管部署模式,专为对数据主权要求严格或处于高度监管行业的组织设计。
Sharma 表示:“对自托管选项最感兴趣的行业主要是监管更为严格的行业 —— 如 FinTech 和医疗保健。” 这包括银行业务、欺诈检测、信用评估应用、基因检测以及个人医疗服务。
无论是部署在云端还是企业自有基础设施中,这种灵活性都能应对对敏感数据离开组织边界的日益担忧,尤其是在可能处理受监管信息的 AI 应用场景中。
Relyance AI’s expansion plans point to growing AI governance market Relyance AI 的扩张计划指向不断增长的 AI 治理市场
Relyance 正将 Data Journeys 定位为其更广泛战略的一部分,旨在成为 Sharma 所称的“统一 AI 原生平台”,用于全球隐私合规、数据安全态势管理及 AI 治理。
Sharma 透露:“在今年下半年,我将推出一款 AI 治理解解决方案,实现对您环境中所有 AI 足迹的 360 度管理,” 该方案涵盖合规性、实时伦理监控、偏差检测以及对第三方和内部 AI 系统的问责。
该公司的长远愿景雄心勃勃。Sharma 表示:“AI 代理将主导世界,我们希望成为为各组织提供信任与治理所需基础设施的公司。我们致力于提升全球数据效用指数。”
Investors bet big on data governance as competition heats up 随着竞争加剧,投资者对数据治理大举下注
Relyance 面临来自邻近领域内成熟竞争者的挑战。在此前接受 TechCrunch 采访时,Sharma 承认了包括 OneTrust、Transcend、DataGrail 与 Securiti AI 在内的竞争对手,但他强调 Relyance 的一体化方案使其独树一帜。
投资者似乎对该公司的潜力深信不疑。由 Thomvest Ventures 主导,Microsoft 的 M12 Ventures Fund 参与的 2024 年 10 月 32.1 million 美元的 B 轮融资,使 Relyance 的总融资额达到 59 million 美元。
Thomvest Ventures 董事总经理 Umesh Padval 强调了 Relyance 正在解决问题的紧迫性:“Relyance AI 赋能首席隐私官、安全官及信息官,以管理数据隐私和合规性,从而避免高额罚款,同时推动安全且负责任的 AI 采用。”
Why data oversight might determine AI success in the enterprise 为何数据监督可能决定企业 AI 成败
Sharma 将公司的使命定义为企业在实施 AI 技术时必须面对的更广泛要求的一部分。
他表示:“AI 正逐渐成为组织中的默认必选项,每个人都需要考虑那根核心、基础的支柱 —— 它将成为建立信任和治理的基础设施。”
“无论领导者是否采用 Relyance,这都是一个需要认真考虑的重要方面,因为它将真正决定企业内以实质方式加快 AI 采用的速度。”
随着企业争相实施 AI,维持对数据流程的可见性已从单纯的合规检查项演变为一项基本的业务需求。这一转变代表了那些低调却深远的变化,虽不常登上头条,却深刻重塑了各个行业。构建这些可视性工具的公司实际上在为 AI 构建类似空中交通管制系统的基础设施 —— 不是那些炫目的喷气式飞机本身,而是防止它们互相碰撞的关键保障。若缺少这一点,即便是最出色的算法也会成为企业的负担。
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。