Anthropic最危险AI模型遭未授权人员访问

Anthropic专为网络安全设计的高危AI模型Mythos,被一小群未经授权用户通过第三方承包商权限及网络侦查工具非法获取访问权限。该模型能够识别并利用主流操作系统和浏览器漏洞,官方仅向英伟达、谷歌、苹果等少数企业开放测试。非法访问发生于4月7日,涉事群体通过Mercor数据泄露事件获取的信息推断出模型位置,并已持续使用约两周。Anthropic表示正在调查此事件。

一个Discord群组已访问Mythos模型长达两周。

Anthropic旗下一款强大的网络安全工具——Mythos AI模型,被该公司认为若落入不当之手将造成严重危险,如今已遭"一小群未经授权的用户"访问。据彭博社报道,一名仅被描述为"Anthropic第三方承包商"的匿名成员透露,一个私密线上论坛的成员综合利用了该承包商的访问权限与"常见的网络侦察工具",成功入侵了Mythos系统。

Claude Mythos Preview是一款全新的通用模型,据Anthropic官方介绍,该模型在用户指令下能够识别并利用"几乎所有主流操作系统和主流浏览器中的漏洞"。目前,该模型的正式访问权限仅通过"Project Glasswing"计划向少数企业开放,包括英伟达、谷歌、亚马逊云服务(AWS)、苹果和微软,多国政府也在密切关注这项技术。出于对该模型可能被恶意利用的担忧,Anthropic目前没有公开发布的计划。

对此,Anthropic发言人在向彭博社提供的声明中表示:"我们正在调查一份报告,该报告称有人通过我们某第三方供应商环境对Claude Mythos Preview进行了未授权访问。"Anthropic目前尚无证据表明此次未授权访问已影响到公司自身系统,或超出该第三方供应商环境的范围。

据报道,此次非法访问发生于4月7日,恰好是Anthropic宣布向有限数量的企业开放Mythos测试的当天。实施未授权访问的群体目前尚未被公开披露,但彭博社报道称,其成员活跃于一个专门收集未发布AI模型相关信息的Discord频道。

该群体通过利用从近期Mercor数据泄露事件中获取的Anthropic其他模型格式信息,对模型的在线存储位置进行了"有根据的猜测",从而成功访问了Mythos。自获得访问权限以来,成员们一直在频繁使用该模型,并向彭博社提供了截图及实时演示作为证明,但据称为规避Anthropic的检测,他们并未将其用于网络安全相关用途。彭博社还称,该群体还访问了Anthropic其他尚未发布的AI模型。

Q&A

Q1:Claude Mythos Preview是什么模型,有哪些能力?

A:Claude Mythos Preview是Anthropic开发的全新通用AI模型,专注于网络安全领域。据Anthropic官方介绍,该模型能够在用户指令下识别并利用几乎所有主流操作系统和主流浏览器中的安全漏洞。正因其强大且潜在的危险性,Anthropic目前仅通过Project Glasswing计划向英伟达、谷歌、亚马逊云服务、苹果和微软等少数企业开放访问权限,暂无公开发布计划。

Q2:未授权用户是如何入侵Mythos模型的?

A:据彭博社报道,这群用户综合运用了多种手段:一方面借助一名Anthropic第三方承包商的访问权限;另一方面利用近期Mercor数据泄露事件中获取的Anthropic其他模型格式信息,对Mythos的在线存储位置进行了"有根据的猜测",并配合常见网络侦察工具,最终于4月7日成功获得了未授权访问。

Q3:Anthropic对此次未授权访问事件的回应是什么?

A:Anthropic发言人确认正在调查该事件,声明称此次疑似未授权访问发生在第三方供应商环境中。目前Anthropic尚无证据表明公司自身系统受到影响,或此次访问已超出第三方供应商环境的范围。调查仍在进行中。

来源:The Verge

0赞

好文章,需要你的鼓励

2026

04/23

15:52

分享

点赞

邮件订阅