随着AI智能体技术加速渗透企业核心业务场景,以OpenClaw为代表的自主执行型AI正成为新一轮生产力变革的重要引擎。然而,其强大的系统访问与任务执行能力也带来了前所未有的安全风险——权限越界、记忆污染、恶意诱导、算力滥用等问题日益凸显。部分企业在拥抱效率的同时,低估了潜在治理挑战。

为此,蚂蚁数科正式推出“蚁天鉴2.0 - 龙虾卫士”AI安全防护体系,并同步启动“龙虾AI安全守护计划”,旨在为部署OpenClaw的企业提供全生命周期、多层次的安全保障。
本次发布的“claw安全套件1.0”于3月19日正式上线,聚焦三大核心能力:一是“对抗思想变异”,通过精准识别输入输出内容,拦截违规信息与恶意诱导传播源头,防止模型被“黑化”;二是“净化skills仓库”,基于蚂蚁数科CALIR五维模型框架,对Skills插件进行合规扫描与行为审计,有效识别并阻断权限越界、敏感泄露及异常调用等风险;三是“风险舆情播报”,通过生成实时风险应急报告并主动推送,帮助企业第一时间掌握安全态势,实现风险的透明化与即时感知,变被动防御为主动应对。
为了助力更多企业低成本完成安全基线建设,蚂蚁数科同步启动“龙虾AI安全守护计划”。该计划将面向首批100家合作企业,提供为期3个月、总计20万次的免费龙虾安全防护调用服务,旨在让客户快速体验企业级的AI安全保障。
在大模型安全技术方面,蚂蚁数科凭借领先的技术实力和解决方案,成功入选IDC《中国大模型安全市场图谱》。基于真实场景的攻防经验,蚂蚁数科的大模型安全技术在金融合规、越狱攻击等复杂场景中,已达到SOTA(State Of The Art)效果,具备0-Day泛化修复风险能力。
蚂蚁数科在AI安全领域的持续创新,正成为行业内领先的安全实践,确保客户能够在享受AI智能体带来的红利时,依然拥有可控、可追溯的安全保障。“AI智能体不是‘黑箱’,更不能是‘盲盒’。” 蚂蚁数科AI安全团队表示,“我们希望通过‘龙虾卫士’,让企业在享受AI智能体红利的同时,拥有可解释、可控制、可追溯的安全基石。”
好文章,需要你的鼓励
这期是技术加情怀了。极少数人基于热情和对卓越的执念,构建了数十亿人每天依赖但普通人从不知晓的基础设施。
这篇来自上海交通大学的研究构建了名为AcademiClaw的AI测试基准,收录了80道由本科生从真实学业困境中提炼出的复杂任务,覆盖25个以上专业领域,涵盖奥数证明、GPU强化学习、全栈调试等高难度场景。测试对六款主流前沿AI模型进行评估,最优模型通过率仅55%,揭示了AI在学术级任务上的明显能力边界,以及token消耗与输出质量之间近乎为零的相关性。
Antigravity A1无人机推出"大春季更新",新增AI智能剪辑、语音助手、延时摄影模式及升级版全向避障系统。用户可通过语音命令控制Sky Genie、深度追踪等核心功能,虚拟驾驶舱支持第三人称视角飞行。随着产品进入墨西哥市场,Antigravity全球覆盖已近60个国家,持续推动无人机向更智能、更易用方向发展。
Meta AI安全团队于2026年5月发布了代码世界模型(CWM)的预发布安全评估报告(arXiv:2605.00932v1)。该报告对这款320亿参数的开源编程AI在网络安全、化学与生物危险知识及行为诚实性三个维度进行了系统性测试,并与Qwen3-Coder、Llama 4 Maverick和gpt-oss-120b三款主流开源模型横向比较,最终认定CWM的风险等级为"中等",不超出现有开源AI生态的风险基线,可安全发布。