从生成式 AI 模型到代理型 AI,人工智能承诺在各个行业推动创新。然而,随着各组织越来越多地将 AI 融入运营,一个关键挑战随之而来:如何保护这样既动态、又具自主性并且复杂的系统?
答案很明确 —— 就像云计算要求转向云原生安全工具一样,AI 同样需要一种全新设计、专门针对其独特需求的安全解决方案。
云计算的崛起与安全教训
在云计算的早期阶段,企业曾试图使用传统的本地安全工具来保护云环境。但这种方法并未考虑云的独特特性 —— 责任共享模型、海量规模,以及分布于各地数据保护的难题。这使人们意识到:仅靠旧方法无法实现有效的云安全,必须采用全新的云原生工具。
转向云原生安全解决方案不仅仅在于扩展现有系统,而更在于重新构建安全体系以适应云架构。这些工具必须具备弹性、能够感知云环境,并且能够实时监控和保护动态、分布式的环境。云计算促使了更为先进的安全方法,而如今 AI 同样需要这种演进。
AI 安全挑战
AI 系统与传统软件应用存在根本区别。它们能在实时内学习、适应和进化,这也带来了全新的风险。从 ChatGPT 这样的生成式 AI 工具到更先进的代理型 AI 系统,每推出一种新模型,其攻击面都会不断扩大。为静态系统设计的安全工具根本无法跟上 AI 系统迅速变化的步伐。
这种挑战并非理论假设 —— 它已经出现。正如 Aurascape 的联合创始人兼 CEO Moinul Khan 在近期的一次对话中指出:“组织致力于阻挡不法分子并保护知识产权 —— AI 增加了这一问题的复杂性。”
核心挑战在于如何保持对 AI 系统行为的控制,并确保在此过程中敏感数据不会外泄。
传统安全工具为何不足以应对
AI 技术不断演进,这既展现了其价值,也引发了相应风险。传统安全工具是为静态环境设计的,根本无法有效地监控 AI 系统的行为。这些工具无法追踪 AI 模型如何学习、如何与数据互动以及如何适应新的输入。
正如 Khan 所解释的,对于 AI 应用来说,传统的网络安全工具(例如防火墙和代理)是不够的。“当我向 Microsoft Copilot 上传一个文件并请求摘要时,那只是一次 HTTP POST;但如果我通过一系列往返查询与 Copilot 互动,你现有的防火墙和代理就完全无法捕捉到这些交流。”这正是 AI 原生安全工具发挥作用的地方。
AI 原生安全工具的崛起
为应对这些独特挑战,AI 原生安全工具应运而生。这些工具提供了几项关键功能:
实时威胁检测: AI 原生安全解决方案必须能够在 AI 系统处理数据、从新输入中学习并生成输出的过程中,实时检测异常行为。
对 AI 系统的精细控制:正如云原生安全工具能够对云环境进行精细控制一样,AI 原生安全工具赋予企业对 AI 应用的掌控能力,包括监控和控制 AI 系统访问的数据,并确保其输出符合安全策略。
跨 AI 系统的数据保护:由于 AI 对大量数据进行处理,安全工具必须确保敏感信息不会泄露或被滥用。AI 原生解决方案需要在数据穿梭于 AI 系统之间时对其进行保护,同时确保满足 GDPR、HIPAA 等法规要求。
AI 安全的演进
新兴技术的安全演进通常遵循一定模式,并为 AI 的安全防护勾勒出一条路线图。
Khan 直接将云安全早期阶段与当前 AI 安全现状进行了对比:“我们不是在创造一个全新的市场,而是在解决组织二十年前互联网时代面临的同样问题。唯一的区别在于,现在我们面对的是需要以全然不同方式理解的 AI 应用。这不仅仅是封堵不法分子的问题,更在于理解 AI 系统的具体应用场景、交互方式以及数据流。”
向 AI 原生安全的转变已经在进行中。Aurascape 在秘密运营一年之后最近正式亮相,定位自己为这一领域的重要参与者。该公司成功获得了来自知名投资者 Mayfield Fund 和 Menlo Ventures 以及战略支持者(如前 Palo Alto Networks CEO Mark McLaughlin 与前 Zscaler 首席战略官 Manoj Apte)共计 5000 万美元的融资。
Khan 表示:“我们捕获了整个查询和响应,让您能够实时了解用户如何使用 AI。”这一功能使企业可以监控和保护跨多种 AI 应用的数据流,从而提供传统安全模型所无法比拟的可视性和保护。
随着对 AI 解决方案需求的不断增长,AI 原生安全工具的重要性也日益凸显。Aurascape 的市场亮相,加上其强大的投资者网络和 AI 活动控制平台,正是帮助组织迎接这一挑战的关键一步。
构建 AI 应用安全基础
随着 AI 技术在企业运营中扮演越来越重要的角色,保护这些系统变得至关重要。从云安全中学到的教训表明,新技术出现时安全框架必须不断演进以应对新挑战。向 AI 原生安全工具的转变不仅不可避免,对于那些希望在充分发挥 AI 潜力的同时不暴露于不必要风险中的企业来说,更是必不可少的。
Aurascape 采用“以 AI 对抗 AI”的策略,正好体现了这一演变。通过为组织提供实时监控和控制 AI 应用的能力,企业可以更自信地采用 AI 技术,同时保障其最有价值的资产 —— 知识产权和敏感数据。
为了在抓住 AI 革命机遇的同时避免不必要的风险,组织必须采用专为应对 AI 系统独特需求而构建的 AI 原生安全解决方案。就如同云安全离不开云原生安全工具一样,确保各行业安全、可靠地采用 AI 也离不开 AI 原生安全工具。
AI 的未来充满潜力 —— 但前提是我们必须能够恰当地保护它。
好文章,需要你的鼓励
雅虎、Quora、Medium等在线媒体品牌正采用名为RSL的新协议,防止AI公司未经授权复制其内容用于模型训练。RSL协议基于RSS标准开发,为AI时代的互联网提供缺失的许可层。该协议旨在成为比robots.txt更强大的技术层,应对目前占互联网流量一半以上的AI爬虫。Reddit、MIT出版社等多家机构已加入该协议。随着AI导致网站流量下降25%,出版商正通过诉讼或授权协议寻求补偿。
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
思科280亿美元收购Splunk后的18个月里,两家公司专注于将Splunk的机器数据分析技术与思科网络产品线融合,打造"思科数据织网"。Splunk平台高级副总裁表示,收购后的协同效应为Splunk带来新动力,公司策略得到放大而非偏离。双方快速整合工程团队,推出AI Canvas等项目,致力于解决企业IT数据孤岛问题。新举措包括将机器数据与业务洞察连接,推出面向Snowflake的联邦搜索功能。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。