IBM最新报告显示,急于部署AI的企业正在忽视安全和治理问题,攻击者已经开始利用松懈的协议来攻击模型和应用程序。
这些发现来自IBM发布的《2025年数据泄露成本报告》,报告显示,虽然AI相关安全事件目前只占总数的一小部分,但随着企业系统中AI应用的增加,这一比例预计将会增长。
基于2024年3月至2025年2月期间全球600家企业的数据,IBM表示其中13%的企业报告了涉及AI模型或AI应用的安全事件,并导致了违规行为。
在这些遭受泄露的企业中,几乎所有企业(97%)都表示没有建立适当的AI访问控制机制。
约三分之一遭受AI安全事件的企业出现了运营中断,犯罪分子获得了对敏感数据的未授权访问,23%的企业表示因攻击遭受了经济损失,17%的企业声誉受损。
供应链攻击是这些泄露事件的最常见原因,包括被入侵的应用程序、应用程序编程接口(API)和插件。大多数报告AI入侵的企业表示,攻击源头是提供软件即服务(SaaS)的第三方供应商。
IBM的报告特别关注未经授权或所谓的影子AI的危险,这是指在企业内部非正式使用这些工具,而IT或数据治理团队并不知情或未批准。
由于影子AI可能不被企业发现,攻击者利用其漏洞的风险增加。
报告调查发现,大多数企业(87%)没有建立治理机制来缓解AI风险。三分之二的遭受泄露的企业没有进行定期审计来评估风险,超过四分之三的企业报告称没有对其AI模型进行对抗性测试。
这并非首次将安全和治理问题作为企业AI部署的关注点。去年,The Register报道称,许多大型企业暂停了集成使用Microsoft Copilot创建的AI助手和虚拟智能体,因为这些工具会获取员工不应访问的信息。
同样在去年,分析师Gartner估计,到2025年底,至少30%涉及生成式AI的企业项目将在概念验证阶段后被放弃,原因包括数据质量差、风险控制不足、成本上升或业务价值不明确。
IBM的报告显示,许多企业为了部署AI应用,可能因为担心在技术炒作中落后而简单地绕过了安全和治理措施。
IBM安全和运行时产品副总裁Suja Viswesan表示:"报告揭示了AI系统缺乏基本访问控制,使高度敏感的数据暴露,模型容易被操控。随着AI在业务运营中的深度嵌入,AI安全必须被视为基础。不采取行动的代价不仅仅是经济损失,还有信任、透明度和控制力的丧失。数据显示AI采用和监督之间已经存在差距,威胁行为者正开始利用这一点。"
好文章,需要你的鼓励
新创公司Germ为Bluesky社交网络推出端到端加密消息服务,为用户提供比现有私信更安全的聊天选项。经过两年开发,该服务本周进入测试阶段,计划逐步扩大测试用户规模。Germ采用新兴技术如消息层安全协议和AT协议,无需手机号码即可实现安全通信。用户可通过"魔法链接"快速开始聊天,利用苹果App Clips技术无需下载完整应用。
这项研究由哈佛大学团队开发的创新框架,解决了多机构数据共享的核心难题。他们巧妙结合联邦学习、局部差分隐私和公平性约束,使不同机构能在保护数据隐私的同时协作开发更准确、更公平的决策模型。实验证明,该方法在多个真实数据集上既保障了隐私,又显著提升了模型公平性,为医疗、金融和政府等领域的数据协作提供了实用解决方案。
高通公司宣布正在与领先的超大规模云服务商进行深度合作谈判,开发专用于数据中心的CPU产品。CEO阿蒙表示,公司正在开发通用CPU和推理集群产品,预计2028财年开始产生收入。同时,高通面临三星在高端智能手机市场的竞争压力,三星计划在2026年推出采用2纳米工艺的新款Exynos处理器。高通Q3财报显示营收增长10%至103.5亿美元,净利润增长25%。
Meta AI研究团队开发的ALOHA系统是一种低成本开源的双臂机器人远程操作平台,旨在使机器人学习更加民主化和普及化。该系统结合了价格亲民的硬件设计和先进的行为克隆学习算法,使机器人能够从人类示范中学习复杂技能。研究表明,ALOHA系统展示了强大的泛化能力,能够在新环境中应用所学技能,如打开不同类型的瓶子。系统的开源性质鼓励全球研究者参与并推动机器人学习领域的发展,尽管仍面临成本和精确力控制等挑战。