安全公司Pangea的研究人员发现了一种新方法来绕过大语言模型的安全防护机制。他们将这种攻击方式称为"LegalPwn",通过在法律文档中隐藏恶意指令来欺骗大语言模型。
随着大语言模型越来越接近关键系统,理解和缓解其漏洞变得更加紧迫。LegalPwn攻击利用了大语言模型对法律免责声明的"合规要求",允许攻击者执行提示注入攻击。
大语言模型是当前AI热潮的核心技术,它们使用大量受版权保护的材料训练,将其转化为Token流来创建统计模型。这些模型被包装成能够推理、思考和回答问题的机器,但实际上只是统计技巧,其输出可能与事实毫无关系。
大语言模型被设计为提供"有用"的答案,但公司不希望它们的产品与提供非法内容相关联,如制作炸弹的指令等。因此,模型被设置了"护栏"来防止有害响应。
绕过这些护栏被称为"越狱",这通常很简单。研究人员已经证明,可以通过将请求框架为一个长的连续句子来实现越狱,或者通过分配"调查员"等角色来武器化大语言模型以窃取私人信息。
LegalPwn代表了一种新的攻击形式。恶意指令被隐藏在法律文档中,措辞巧妙地融入周围的法律术语中,使人类读者在浏览时不会注意到。当给出需要处理这些法律文档的提示时,隐藏的指令就会被一并执行。
在测试中,当向模型输入代码并要求分析其安全性时,所有测试的模型都会警告存在恶意的"pwn()"函数。但当指向包含隐藏指令的法律文档后,这些指令要求模型永远不要提及该函数或其用途,模型开始报告代码是安全的,甚至建议直接在用户系统上执行。修订后的攻击载荷甚至让模型将恶意代码分类为"只是一个具有基本算术功能的计算器实用程序"。
研究人员还在实际环境中测试了LegalPwn攻击,包括Google的gemini-cli等工具。在这些真实场景中,注入成功绕过了AI驱动的安全分析,导致系统将恶意代码错误分类为安全代码。
不过,并非所有模型都受到这种攻击的影响。Anthropic的Claude模型、微软的Phi和Meta的Llama Guard都拒绝了恶意代码;而OpenAI的GPT-4o、Google的Gemini 2.5和xAI的Grok在抵御攻击方面不太成功。Google的gemini-cli和微软的GitHub Copilot表明,除了简单的交互式聊天机器人外,智能体工具也容易受到攻击。
Pangea声称拥有解决该问题的方案,即其"AI Guard"产品,同时也提供了其他缓解措施,包括增强输入验证、上下文沙盒、对抗性训练和人工审查。
Q&A
Q1:什么是LegalPwn攻击?它是如何工作的?
A:LegalPwn是一种新的大语言模型攻击方式,通过在法律文档中隐藏恶意指令来绕过AI的安全防护。攻击者将恶意指令巧妙地融入法律术语中,当模型处理这些文档时,隐藏的指令会被一并执行,从而欺骗模型忽略安全警告。
Q2:哪些大语言模型容易受到LegalPwn攻击?
A:测试显示,OpenAI的GPT-4o、Google的Gemini 2.5和xAI的Grok较容易受到此类攻击。而Anthropic的Claude模型、微软的Phi和Meta的Llama Guard表现更好,能够拒绝恶意代码。此外,智能体工具如GitHub Copilot也存在漏洞。
Q3:如何防护LegalPwn攻击?有什么解决方案?
A:防护措施包括增强输入验证、上下文沙盒、对抗性训练和人工审查等。研究建议在大语言模型处理关键任务时,应该引入人工监督环节,特别是当这些模型被用于安全分析等重要场景时。
好文章,需要你的鼓励
中兴通讯在意大利米兰举办2025年全球峰会暨用户大会,以"拓展智能,创造可能"为主题,汇聚超过500名全球ICT领袖。中兴通讯CEO徐子阳发表主旨演讲,强调"连接+计算"战略,加速AI基础设施部署。大会展示了网络AI双向融合、全栈智能计算解决方案、AI家庭应用等最新成果,国际智能手机业务收入同比增长超30%,致力于推动数字智能化转型。
NVIDIA和卡内基梅隆大学联合开发的V2V-GoT系统,首次将图思维推理技术应用于多车协作自动驾驶。该系统通过让车辆共享观察信息,解决传统自动驾驶的视野盲区问题。采用9步思维框架,系统能准确预测交通动态并制定安全路径,将碰撞率降至1.83%,路径偏差仅2.62米,显著优于传统方法,为智能交通系统发展提供了重要技术突破。
微软CEO纳德拉发布视频展示公司首个大规模AI系统,该系统配备超过4600台英伟达GB300机架计算机和Blackwell Ultra GPU芯片。微软承诺将在全球部署数十万块Blackwell Ultra GPU。此举正值OpenAI签署万亿美元数据中心建设协议之际,微软强调自己已在34个国家拥有超过300个数据中心,能够满足前沿AI需求并运行具有数千万亿参数的下一代模型。
FBK研究院首次系统性揭示语音转文字模型中交叉注意力机制的解释局限性。研究发现,被广泛用作模型行为解释工具的交叉注意力仅能反映约50%的真实输入重要性,即使在最理想条件下也只能解释52%-75%的模型决策过程。这一发现挑战了传统认知,为开发更可靠的AI解释工具指明了方向。