在生成式AI的淘金热潮中,人们很容易忘记,再先进的建模技术也无法弥补低质量数据的缺陷。当企业竞相部署人工智能时,往往忽视了一项看似平凡却至关重要的工作:保护、治理和准备数据基础。这种疏忽不仅是运营上的疏漏,更是战略层面的风险,特别是在AI数据保护方面。
theCUBE Research的Scott Hebner表示:"数据是AI的生命线。没有信息架构就没有AI。数据是任何AI系统的关键组成部分,因此数据必须具备最高质量。它必须在处理和使用过程中保持完整性,最重要的是,必须得到保护,既要符合监管要求,也要防范各种潜在威胁。因此,任何优秀的长期AI战略都必须从数据层开始,这包括数据保护。"
Hebner在数据保护与AI峰会上与theCUBE的Christophe Bertrand进行了对话,探讨了数据信任鸿沟、智能体AI带来的风险演变,以及保护在构建弹性智能AI基础设施中的基础作用。
大多数企业数据既未受到保护,也未为AI做好准备。根据Hebner的观察,由于风险担忧或缺乏治理,大部分企业数据实际上被搁置。如果没有强有力的AI数据保护,即使是先进的模型也只能在有限的可用信息上运行,这限制了质量和信任度。
"如果你观察组织拥有的绝大多数专有企业数据,实际上今天只有很少一部分被使用,在AI中使用的更少。当你深入研究这些AI项目时,你会发现这是因为他们不确定如何保护这些数据。这是一个风险评估问题。数据就在那里,但还没有准备好用于AI。我们估计企业约95%的数据根本没有准备好,而保护是其中的重要组成部分。"
有效的保护不仅使数据安全,还使其能够大规模地用于AI应用和重复使用。因此,AI数据保护必须被视为设计要求,而非部署后的补救措施。
Bertrand表示:"AI对你的工作流程很重要,对你的工作负载很重要,对你的业务也很重要。因此,AI基础设施的任何部分都必须受到保护。我认为这是基线要求。不要把它当作后续考虑的事情,它实际上是一个设计要求。"
随着AI智能体和自动化以前所未有的速度生成新数据,治理必须跟上步伐。AI数据保护在这一过程中发挥着关键作用,确保系统演进过程中的连续性、完整性和信任度。
Hebner认为:"AI将从这些数据中学习,开始理解什么是真正的高质量数据,什么是受保护的,什么不是。然后,它会从中学习并在下次做得更好。随着系统的不断构建,它在所做的事情上会变得越来越好。我确实认为构建一个支撑治理和信任管理的AI架构,包括保护、监管合规和企业政策在内的框架,有时你会想这是否已经成为基本要求。这只是你必须做的事情;否则,你如何跟上这一切?"
好文章,需要你的鼓励
美国网络安全和基础设施安全局指示联邦机构修补影响思科ASA 5500-X系列防火墙设备的两个零日漏洞CVE-2025-20362和CVE-2025-20333。这些漏洞可绕过VPN身份验证并获取root访问权限,已被黑客积极利用。攻击与国家支持的ArcaneDoor黑客活动有关,黑客通过漏洞安装bootkit恶意软件并操控只读存储器实现持久化。思科已发布补丁,CISA要求机构清点易受攻击系统并在今日前完成修补。
康考迪亚大学研究团队通过对比混合量子-经典神经网络与传统模型在三个基准数据集上的表现,发现量子增强模型在准确率、训练速度和资源效率方面均显著优于传统方法。研究显示混合模型的优势随数据集复杂度提升而增强,在CIFAR100上准确率提升9.44%,训练速度提升5-12倍,且参数更少。该成果为实用化量子增强人工智能铺平道路。
TimeWave是一款功能全面的计时器应用,超越了苹果自带时钟应用的功能。它支持创建流式计时器,让用户可以设置连续的任务计时,帮助专注工作。应用采用简洁的黑白设计,融入了Liquid Glass元素。内置冥想、番茄工作法、20-20-20护眼等多种计时模式,支持实时活动显示和Siri快捷指令。免费版提供基础功能,高级版需付费订阅。
沙特KAUST大学团队开发了专门针对阿拉伯语的AI模型家族"Hala",通过创新的"翻译再调优"技术路线,将高质量英语指令数据转化为450万规模的阿拉伯语语料库,训练出350M到9B参数的多个模型。在阿拉伯语专项测试中,Hala在同规模模型中表现最佳,证明了语言专门化策略的有效性,为阿拉伯语AI发展和其他语言的专门化模型提供了可复制的技术方案。