随着更多公司在没有监管的情况下采用 AI,它们面临的安全风险也在增加。这是IBM年度数据泄露报告的重要发现之一,该报告今年首次关注了 AI 的影响。这家科技巨头发现,过去一年中16%的数据泄露涉及使用 AI 工具。此外,20%的组织报告称,由于员工在公司电脑上使用未经授权的 AI 工具而导致数据泄露。在遭遇 AI 相关泄露的组织中,97%没有任何访问控制措施,63%没有 AI 治理政策。
"数据显示,AI 采用与监管之间的差距已经存在,威胁行为者正开始利用这一漏洞,"IBM安全副总裁Suja Viswesan在声明中表示。
风险很高:在美国,每次数据泄露的平均成本已达到创纪录的1022万美元——尽管全球平均成本下降至444万美元。医疗保健是数据泄露成本最高的行业:平均每次事件成本约742万美元,尽管比2024年的977万美元大幅下降。
公司在管理数据泄露方面也在改善:数据泄露事件的平均生命周期——从发现到恢复——下降至241天,相比去年的258天和2020年IBM确定的280天有所改善。这部分是因为更多公司自主发现泄露,而不是从攻击者那里得知——部分原因是更多公司使用 AI 监控网络并保持安全。
社交媒体清理可能适得其反——甚至损害求职前景
对于寻找工作或实习的大学生,关于社交媒体的标准建议是:在LinkedIn上建立专业档案,但清理其他社交媒体账户(那些显示政治观点或聚会活动的)或将其设为私人。
然而最近的发展可能让这种做法过时,因为学生面临潜在的两难困境:他们在社交媒体上说的话可能在求职时伤害他们。但学生删除或隐藏公开在线存在也可能以不可预测的方式适得其反。
一些潜在雇主正在采用 AI 工具筛选社交媒体,以确定申请者是否真实,因为 AI 导致欺诈者伪造(或窃取)身份激增。这些工具筛选社交账户年龄、发布和点赞活动以及LinkedIn连接等信息,这使得清理档案成为更冒险的举动。
Q&A
Q1:AI工具导致数据泄露的情况有多严重?
A:根据IBM年度报告,过去一年中16%的数据泄露涉及使用AI工具,20%的组织因员工使用未经授权的AI工具而遭遇泄露。在AI相关泄露的组织中,97%没有访问控制措施,63%缺乏AI治理政策。
Q2:为什么清理社交媒体档案现在可能有害?
A:一些雇主正使用AI工具筛选社交媒体来确定申请者身份真实性,因为AI导致虚假身份激增。这些工具检查账户年龄、活动记录和LinkedIn连接等,使得清理档案变得有风险。
Q3:美国数据泄露的成本有多高?
A:在美国,每次数据泄露的平均成本已达到创纪录的1022万美元。医疗保健行业成本最高,平均每次事件约742万美元。尽管全球平均成本下降至444万美元,但美国的成本仍在上升。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。