随着更多公司在没有监管的情况下采用 AI,它们面临的安全风险也在增加。这是IBM年度数据泄露报告的重要发现之一,该报告今年首次关注了 AI 的影响。这家科技巨头发现,过去一年中16%的数据泄露涉及使用 AI 工具。此外,20%的组织报告称,由于员工在公司电脑上使用未经授权的 AI 工具而导致数据泄露。在遭遇 AI 相关泄露的组织中,97%没有任何访问控制措施,63%没有 AI 治理政策。
"数据显示,AI 采用与监管之间的差距已经存在,威胁行为者正开始利用这一漏洞,"IBM安全副总裁Suja Viswesan在声明中表示。
风险很高:在美国,每次数据泄露的平均成本已达到创纪录的1022万美元——尽管全球平均成本下降至444万美元。医疗保健是数据泄露成本最高的行业:平均每次事件成本约742万美元,尽管比2024年的977万美元大幅下降。
公司在管理数据泄露方面也在改善:数据泄露事件的平均生命周期——从发现到恢复——下降至241天,相比去年的258天和2020年IBM确定的280天有所改善。这部分是因为更多公司自主发现泄露,而不是从攻击者那里得知——部分原因是更多公司使用 AI 监控网络并保持安全。
社交媒体清理可能适得其反——甚至损害求职前景
对于寻找工作或实习的大学生,关于社交媒体的标准建议是:在LinkedIn上建立专业档案,但清理其他社交媒体账户(那些显示政治观点或聚会活动的)或将其设为私人。
然而最近的发展可能让这种做法过时,因为学生面临潜在的两难困境:他们在社交媒体上说的话可能在求职时伤害他们。但学生删除或隐藏公开在线存在也可能以不可预测的方式适得其反。
一些潜在雇主正在采用 AI 工具筛选社交媒体,以确定申请者是否真实,因为 AI 导致欺诈者伪造(或窃取)身份激增。这些工具筛选社交账户年龄、发布和点赞活动以及LinkedIn连接等信息,这使得清理档案成为更冒险的举动。
Q&A
Q1:AI工具导致数据泄露的情况有多严重?
A:根据IBM年度报告,过去一年中16%的数据泄露涉及使用AI工具,20%的组织因员工使用未经授权的AI工具而遭遇泄露。在AI相关泄露的组织中,97%没有访问控制措施,63%缺乏AI治理政策。
Q2:为什么清理社交媒体档案现在可能有害?
A:一些雇主正使用AI工具筛选社交媒体来确定申请者身份真实性,因为AI导致虚假身份激增。这些工具检查账户年龄、活动记录和LinkedIn连接等,使得清理档案变得有风险。
Q3:美国数据泄露的成本有多高?
A:在美国,每次数据泄露的平均成本已达到创纪录的1022万美元。医疗保健行业成本最高,平均每次事件约742万美元。尽管全球平均成本下降至444万美元,但美国的成本仍在上升。
好文章,需要你的鼓励
美国网络安全和基础设施安全局指示联邦机构修补影响思科ASA 5500-X系列防火墙设备的两个零日漏洞CVE-2025-20362和CVE-2025-20333。这些漏洞可绕过VPN身份验证并获取root访问权限,已被黑客积极利用。攻击与国家支持的ArcaneDoor黑客活动有关,黑客通过漏洞安装bootkit恶意软件并操控只读存储器实现持久化。思科已发布补丁,CISA要求机构清点易受攻击系统并在今日前完成修补。
康考迪亚大学研究团队通过对比混合量子-经典神经网络与传统模型在三个基准数据集上的表现,发现量子增强模型在准确率、训练速度和资源效率方面均显著优于传统方法。研究显示混合模型的优势随数据集复杂度提升而增强,在CIFAR100上准确率提升9.44%,训练速度提升5-12倍,且参数更少。该成果为实用化量子增强人工智能铺平道路。
TimeWave是一款功能全面的计时器应用,超越了苹果自带时钟应用的功能。它支持创建流式计时器,让用户可以设置连续的任务计时,帮助专注工作。应用采用简洁的黑白设计,融入了Liquid Glass元素。内置冥想、番茄工作法、20-20-20护眼等多种计时模式,支持实时活动显示和Siri快捷指令。免费版提供基础功能,高级版需付费订阅。
沙特KAUST大学团队开发了专门针对阿拉伯语的AI模型家族"Hala",通过创新的"翻译再调优"技术路线,将高质量英语指令数据转化为450万规模的阿拉伯语语料库,训练出350M到9B参数的多个模型。在阿拉伯语专项测试中,Hala在同规模模型中表现最佳,证明了语言专门化策略的有效性,为阿拉伯语AI发展和其他语言的专门化模型提供了可复制的技术方案。