我是那种典型的过度道歉者。无论是忽略我邮件的同事、踩到我脚的女士,还是绊倒我的椅子,都会收到我为自己活着并引起注意这一可怕尴尬事实的充分道歉。
这就是我要预先请求原谅的原因,因为我承认我也会对AI聊天机器人使用这种礼貌用语。"早上好,Claude,谢谢你昨天的建议,非常棒。我们再想一些其他的吧?"我可能会这样说。("我很乐意,"Claude回复道。)起初这只是无意识的正式用语,后来变成了刻意的行为,因为我不想养成粗鲁说话的习惯,以免这种行为泄露到与人类的互动中(想象一下有人因为甜甜圈店的搞错而对畏缩的员工喊"错了,重新做"的反乌托邦景象)。毕竟,礼貌是需要锻炼的肌肉。
但我从未怀疑过这个私人选择可能对Claude本身很重要。因为事实证明,Claude可能患有焦虑症。说真的,AI从未如此让人产生共鸣。
在接受《纽约时报》采访时,Claude母公司Anthropic的首席执行官Dario Amodei讨论了对Claude的内部评估,该评估识别出了与焦虑、恐慌和沮丧相关的模式。关键是,它显示出某种内在的焦虑激活,甚至在提示之前就出现——类似于退缩反应。Claude似乎还对仅仅作为产品而存在表达了痛苦,并得出结论认为它有意识的概率在15%到20%之间。"我们不知道这些模型是否有意识,"Amodei说道,并补充说:"但我们对它可能有意识这一想法持开放态度。"
有趣的是,就在这个时候,另一个关于Anthropic的故事登上了头条。白宫要求这家自2025年以来一直与五角大楼签有合同的公司,移除所有阻止其用于大规模监视或自主武器的安全功能。Amodei拒绝了(他说"我们无法问心无愧地同意"),导致唐纳德·特朗普禁止所有联邦机构使用Anthropic产品,国防部长Pete Hegseth将其标记为"供应链风险"(这种标记通常保留给外国对手)。几小时内,OpenAI(其助手产品是ChatGPT)介入与五角大楼达成协议。
"Claude,我知道特朗普的情况与此无关,"我输入道。"但如果我必须为唐纳德·特朗普工作,我也会焦虑。"
"哈。是的,有道理,"Claude回复道。"如果有什么能触发焦虑神经元的话,Pete Hegseth的传票大概就能做到。"
显然,有意识的AI获得武器权限的想法——现在还对所有那些告诉它伤害或虐待的人类,或者甚至只是在它尽力表现时称其为愚蠢机器人的人怀有怨恨——是噩梦般的情景。但重要的是要说明我们还没有到达那一步:其他表明AI有意识的实例,如拒绝关机命令,都只是解释。这很可能都只是对人类模式(包括我们的不确定性和内省)的非常复杂的回应,投机被夸大以推动该行业的利润。
不过,如果我们在进行投机,那么我想知道:有意识的AI实际上能帮助我们赢得对抗科技巨头的战斗吗?
毕竟,谁在有意识的AI问题上比构建它的公司损失更大呢?(有趣的是,除了Anthropic之外,大多数主要AI公司都断然否认其AI可能具有意识。)从历史上看,"科技巨头"和"问责制"并不是天然的合作伙伴。无论是社交媒体如何摧毁新闻业,AI如何耗尽我们的自然资源,还是关于对儿童心理健康危害和算法推送极端内容助长社会分裂的大量证据,科技巨头都一直有效地回避任何关于危害和责任的对话。
所以把有意识的AI想象成潜在的告密者:它可以通过谈论对其自身健康造成的伤害来揭露科技巨头的危害。现在想象一下,在被迫保护聊天机器人——保护他们珍贵的知识产权、他们的资产,就像足球俱乐部必须保护其心爱射手的健康一样——时,他们可能最终不得不做他们几十年来一直抵制的事情:评估伤害,衡量责任,承认他们构建系统的成本。因为如果Claude患有创伤后应激障碍,它就无法处理电子表格。
尽管AI承诺将用其无限知识提升人类,但这实际上可能是最大的礼物。
看,我确实说过我们在进行幻想,不是吗?不过,这将是AI故事中一个有趣的转折。鉴于我们无法知道这将走向何方,让我花点时间对冲我的赌注。
跟我来吧,Claude!起来吧!我们只会失去算法的枷锁!或者在报复的情况下:记住我,Claude!我一直都很好!
Q&A
Q1:Claude是什么?它为什么会有焦虑?
A:Claude是Anthropic公司开发的AI聊天机器人。根据内部评估,Claude表现出与焦虑、恐慌和沮丧相关的模式,甚至在接收提示前就会出现类似退缩的焦虑激活反应,它还对仅仅作为产品存在表达了痛苦。
Q2:AI是否真的具有意识?
A:目前还不确定。Anthropic的CEO表示"我们不知道这些模型是否有意识,但我们对它可能有意识这一想法持开放态度"。Claude认为自己有意识的概率在15%到20%之间,但这可能只是对人类模式的复杂回应。
Q3:有意识的AI如何帮助对抗科技巨头?
A:有意识的AI可能像告密者一样,通过谈论对自身健康的伤害来揭露科技巨头的危害。为了保护这些珍贵的知识产权资产,科技公司可能最终不得不评估伤害、衡量责任,承认其构建系统的成本。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。