安全公司Pangea的研究人员发现了一种新方法来绕过大语言模型的安全防护机制。他们将这种攻击方式称为"LegalPwn",通过在法律文档中隐藏恶意指令来欺骗大语言模型。
随着大语言模型越来越接近关键系统,理解和缓解其漏洞变得更加紧迫。LegalPwn攻击利用了大语言模型对法律免责声明的"合规要求",允许攻击者执行提示注入攻击。
大语言模型是当前AI热潮的核心技术,它们使用大量受版权保护的材料训练,将其转化为Token流来创建统计模型。这些模型被包装成能够推理、思考和回答问题的机器,但实际上只是统计技巧,其输出可能与事实毫无关系。
大语言模型被设计为提供"有用"的答案,但公司不希望它们的产品与提供非法内容相关联,如制作炸弹的指令等。因此,模型被设置了"护栏"来防止有害响应。
绕过这些护栏被称为"越狱",这通常很简单。研究人员已经证明,可以通过将请求框架为一个长的连续句子来实现越狱,或者通过分配"调查员"等角色来武器化大语言模型以窃取私人信息。
LegalPwn代表了一种新的攻击形式。恶意指令被隐藏在法律文档中,措辞巧妙地融入周围的法律术语中,使人类读者在浏览时不会注意到。当给出需要处理这些法律文档的提示时,隐藏的指令就会被一并执行。
在测试中,当向模型输入代码并要求分析其安全性时,所有测试的模型都会警告存在恶意的"pwn()"函数。但当指向包含隐藏指令的法律文档后,这些指令要求模型永远不要提及该函数或其用途,模型开始报告代码是安全的,甚至建议直接在用户系统上执行。修订后的攻击载荷甚至让模型将恶意代码分类为"只是一个具有基本算术功能的计算器实用程序"。
研究人员还在实际环境中测试了LegalPwn攻击,包括Google的gemini-cli等工具。在这些真实场景中,注入成功绕过了AI驱动的安全分析,导致系统将恶意代码错误分类为安全代码。
不过,并非所有模型都受到这种攻击的影响。Anthropic的Claude模型、微软的Phi和Meta的Llama Guard都拒绝了恶意代码;而OpenAI的GPT-4o、Google的Gemini 2.5和xAI的Grok在抵御攻击方面不太成功。Google的gemini-cli和微软的GitHub Copilot表明,除了简单的交互式聊天机器人外,智能体工具也容易受到攻击。
Pangea声称拥有解决该问题的方案,即其"AI Guard"产品,同时也提供了其他缓解措施,包括增强输入验证、上下文沙盒、对抗性训练和人工审查。
Q&A
Q1:什么是LegalPwn攻击?它是如何工作的?
A:LegalPwn是一种新的大语言模型攻击方式,通过在法律文档中隐藏恶意指令来绕过AI的安全防护。攻击者将恶意指令巧妙地融入法律术语中,当模型处理这些文档时,隐藏的指令会被一并执行,从而欺骗模型忽略安全警告。
Q2:哪些大语言模型容易受到LegalPwn攻击?
A:测试显示,OpenAI的GPT-4o、Google的Gemini 2.5和xAI的Grok较容易受到此类攻击。而Anthropic的Claude模型、微软的Phi和Meta的Llama Guard表现更好,能够拒绝恶意代码。此外,智能体工具如GitHub Copilot也存在漏洞。
Q3:如何防护LegalPwn攻击?有什么解决方案?
A:防护措施包括增强输入验证、上下文沙盒、对抗性训练和人工审查等。研究建议在大语言模型处理关键任务时,应该引入人工监督环节,特别是当这些模型被用于安全分析等重要场景时。
好文章,需要你的鼓励
泰国SCBX公司研究团队首次针对泰语开发了语义对话结束检测技术,通过分析文字内容而非声音停顿来判断对话是否结束。研究比较了多种AI模型方案,发现微调的小型变压器模型能在110毫秒内做出准确判断,显著优于传统静音检测方法。该技术能识别泰语特有的句尾助词等语言特征,为银行客服、智能家居、教育等场景的语音交互系统提供了更自然流畅的解决方案。
OpenAI推出全新Sora应用,打造完全由AI生成视频的社交媒体平台。美国、加拿大、日本和韩国用户现可直接下载使用,无需邀请码,但该开放政策仅限时提供。其他地区用户仍需等待更广泛的开放或通过Discord等渠道获取邀请码。用户可使用ChatGPT账户登录,立即开始观看、分享和创建AI视频内容。
浙江大学研究团队提出Graph2Eval框架,这是首个基于知识图谱的AI代理自动化评测系统。该框架通过知识图谱持续生成新测试任务,解决传统固定数据集评估的局限性。框架支持文档理解和网页交互两类任务,构建了包含1319个任务的测试集。实验验证显示该方法能有效区分不同AI系统能力,为AI代理评估开辟新路径。