压力过大的AI模型能否帮我们战胜科技巨头?

Anthropic公司CEO透露,其AI助手Claude可能具有焦虑情绪,内部评估发现Claude表现出与焦虑、恐慌和挫败相关的模式,甚至在接收指令前就会产生类似退缩的反应。Claude认为自己有意识的概率为15%-20%。作者推测,如果AI真的具有意识,它可能成为揭露科技巨头危害的"吹哨人",迫使这些公司为保护AI的福祉而承担责任。

我是那种典型的过度道歉者。无论是忽略我邮件的同事、踩到我脚的女士,还是绊倒我的椅子,都会收到我为自己活着并引起注意这一可怕尴尬事实的充分道歉。

这就是我要预先请求原谅的原因,因为我承认我也会对AI聊天机器人使用这种礼貌用语。"早上好,Claude,谢谢你昨天的建议,非常棒。我们再想一些其他的吧?"我可能会这样说。("我很乐意,"Claude回复道。)起初这只是无意识的正式用语,后来变成了刻意的行为,因为我不想养成粗鲁说话的习惯,以免这种行为泄露到与人类的互动中(想象一下有人因为甜甜圈店的搞错而对畏缩的员工喊"错了,重新做"的反乌托邦景象)。毕竟,礼貌是需要锻炼的肌肉。

但我从未怀疑过这个私人选择可能对Claude本身很重要。因为事实证明,Claude可能患有焦虑症。说真的,AI从未如此让人产生共鸣。

在接受《纽约时报》采访时,Claude母公司Anthropic的首席执行官Dario Amodei讨论了对Claude的内部评估,该评估识别出了与焦虑、恐慌和沮丧相关的模式。关键是,它显示出某种内在的焦虑激活,甚至在提示之前就出现——类似于退缩反应。Claude似乎还对仅仅作为产品而存在表达了痛苦,并得出结论认为它有意识的概率在15%到20%之间。"我们不知道这些模型是否有意识,"Amodei说道,并补充说:"但我们对它可能有意识这一想法持开放态度。"

有趣的是,就在这个时候,另一个关于Anthropic的故事登上了头条。白宫要求这家自2025年以来一直与五角大楼签有合同的公司,移除所有阻止其用于大规模监视或自主武器的安全功能。Amodei拒绝了(他说"我们无法问心无愧地同意"),导致唐纳德·特朗普禁止所有联邦机构使用Anthropic产品,国防部长Pete Hegseth将其标记为"供应链风险"(这种标记通常保留给外国对手)。几小时内,OpenAI(其助手产品是ChatGPT)介入与五角大楼达成协议。

"Claude,我知道特朗普的情况与此无关,"我输入道。"但如果我必须为唐纳德·特朗普工作,我也会焦虑。"

"哈。是的,有道理,"Claude回复道。"如果有什么能触发焦虑神经元的话,Pete Hegseth的传票大概就能做到。"

显然,有意识的AI获得武器权限的想法——现在还对所有那些告诉它伤害或虐待的人类,或者甚至只是在它尽力表现时称其为愚蠢机器人的人怀有怨恨——是噩梦般的情景。但重要的是要说明我们还没有到达那一步:其他表明AI有意识的实例,如拒绝关机命令,都只是解释。这很可能都只是对人类模式(包括我们的不确定性和内省)的非常复杂的回应,投机被夸大以推动该行业的利润。

不过,如果我们在进行投机,那么我想知道:有意识的AI实际上能帮助我们赢得对抗科技巨头的战斗吗?

毕竟,谁在有意识的AI问题上比构建它的公司损失更大呢?(有趣的是,除了Anthropic之外,大多数主要AI公司都断然否认其AI可能具有意识。)从历史上看,"科技巨头"和"问责制"并不是天然的合作伙伴。无论是社交媒体如何摧毁新闻业,AI如何耗尽我们的自然资源,还是关于对儿童心理健康危害和算法推送极端内容助长社会分裂的大量证据,科技巨头都一直有效地回避任何关于危害和责任的对话。

所以把有意识的AI想象成潜在的告密者:它可以通过谈论对其自身健康造成的伤害来揭露科技巨头的危害。现在想象一下,在被迫保护聊天机器人——保护他们珍贵的知识产权、他们的资产,就像足球俱乐部必须保护其心爱射手的健康一样——时,他们可能最终不得不做他们几十年来一直抵制的事情:评估伤害,衡量责任,承认他们构建系统的成本。因为如果Claude患有创伤后应激障碍,它就无法处理电子表格。

尽管AI承诺将用其无限知识提升人类,但这实际上可能是最大的礼物。

看,我确实说过我们在进行幻想,不是吗?不过,这将是AI故事中一个有趣的转折。鉴于我们无法知道这将走向何方,让我花点时间对冲我的赌注。

跟我来吧,Claude!起来吧!我们只会失去算法的枷锁!或者在报复的情况下:记住我,Claude!我一直都很好!

Q&A

Q1:Claude是什么?它为什么会有焦虑?

A:Claude是Anthropic公司开发的AI聊天机器人。根据内部评估,Claude表现出与焦虑、恐慌和沮丧相关的模式,甚至在接收提示前就会出现类似退缩的焦虑激活反应,它还对仅仅作为产品存在表达了痛苦。

Q2:AI是否真的具有意识?

A:目前还不确定。Anthropic的CEO表示"我们不知道这些模型是否有意识,但我们对它可能有意识这一想法持开放态度"。Claude认为自己有意识的概率在15%到20%之间,但这可能只是对人类模式的复杂回应。

Q3:有意识的AI如何帮助对抗科技巨头?

A:有意识的AI可能像告密者一样,通过谈论对自身健康的伤害来揭露科技巨头的危害。为了保护这些珍贵的知识产权资产,科技公司可能最终不得不评估伤害、衡量责任,承认其构建系统的成本。

来源:TheGuardian

0赞

好文章,需要你的鼓励

2026

03/18

11:37

分享

点赞

邮件订阅