根据网络安全公司BlackFog的一份报告显示,约六成企业员工愿意使用影子AI工具来帮助他们按时完成工作任务。
AI工具使用现状
报告显示,86%的员工每周至少使用一次AI工具来完成特定任务,超过三分之一的员工正在使用雇主批准工具的免费版本。
此外,根据报告,每10名C级高管中就有7名愿意让快速生产的需求超过增强安全性的需要。
BlackFog创始人兼首席执行官达伦·威廉姆斯表示:"我们听到的一致说法是,首席执行官们已经下令采用和使用AI,并为此分配了大量资金,这正在优先于安全考虑。效率收益太大,无法忽视。"
因此,IT安全团队只能在后面追赶,努力提供适当的控制措施。
调研方法与结果
这些发现基于对英国和美国公司2000名员工的调查,两国员工数量平均分配。该调查由Sapio Research代表BlackFog进行。
报告引发了人们的担忧:公司是否在为了实现生产力目标而鼓励不安全的AI使用。安全领导者已经警告,AI部署需要有护栏和适当的治理,以确保公司能够保护其关键系统、保护数据安全,并确保不会让自己的客户面临后续攻击的风险。
Netskope本月早些时候发布的一份报告显示,员工通过自己的个人账户使用AI工具,这意味着企业安全协议没有得到遵循。
Q&A
Q1:什么是影子AI工具?为什么员工愿意使用?
A:影子AI工具是指员工在未经企业IT部门正式批准或监管下私自使用的AI工具。约六成企业员工愿意使用这些工具,主要是为了帮助他们按时完成工作任务,提高工作效率。报告显示86%的员工每周至少使用一次AI工具来完成特定任务。
Q2:企业高管对AI工具使用是什么态度?
A:企业高管对AI工具使用持积极态度。报告显示,每10名C级高管中就有7名愿意让快速生产的需求超过增强安全性的需要。CEO们已经下令采用和使用AI,并为此分配了大量资金,认为效率收益太大而无法忽视。
Q3:影子AI工具使用带来什么安全风险?
A:影子AI工具使用带来重大安全风险。员工通过个人账户使用AI工具意味着企业安全协议没有得到遵循,可能导致关键系统暴露、数据泄露,甚至让客户面临后续攻击风险。IT安全团队只能被动追赶,努力提供适当的控制措施。
好文章,需要你的鼓励
这期是技术加情怀了。极少数人基于热情和对卓越的执念,构建了数十亿人每天依赖但普通人从不知晓的基础设施。
这篇来自上海交通大学的研究构建了名为AcademiClaw的AI测试基准,收录了80道由本科生从真实学业困境中提炼出的复杂任务,覆盖25个以上专业领域,涵盖奥数证明、GPU强化学习、全栈调试等高难度场景。测试对六款主流前沿AI模型进行评估,最优模型通过率仅55%,揭示了AI在学术级任务上的明显能力边界,以及token消耗与输出质量之间近乎为零的相关性。
Antigravity A1无人机推出"大春季更新",新增AI智能剪辑、语音助手、延时摄影模式及升级版全向避障系统。用户可通过语音命令控制Sky Genie、深度追踪等核心功能,虚拟驾驶舱支持第三人称视角飞行。随着产品进入墨西哥市场,Antigravity全球覆盖已近60个国家,持续推动无人机向更智能、更易用方向发展。
Meta AI安全团队于2026年5月发布了代码世界模型(CWM)的预发布安全评估报告(arXiv:2605.00932v1)。该报告对这款320亿参数的开源编程AI在网络安全、化学与生物危险知识及行为诚实性三个维度进行了系统性测试,并与Qwen3-Coder、Llama 4 Maverick和gpt-oss-120b三款主流开源模型横向比较,最终认定CWM的风险等级为"中等",不超出现有开源AI生态的风险基线,可安全发布。