未来的 AI 是否会“有意识”,并以类似人类的方式体验世界?目前没有有力的证据表明会这样,但 Anthropic 并未排除这种可能性。
周四,该 AI 实验室宣布已启动一项研究计划,目的是调查并为应对所谓“模型福利”做好准备。作为这一努力的一部分,Anthropic 表示将探索如何判断 AI 模型的“福利”是否值得受到道德关注、模型可能出现的“痛苦迹象”的潜在重要性,以及可能采取的“低成本”干预措施等问题。
在 AI 社区内,关于模型是否展现出任何人类特性以及我们应如何“对待”它们,存在着重大分歧。
许多学者认为,现今的 AI 无法接近人类的意识或体验,未来也不一定能做到。我们所熟知的 AI,本质上是一个统计预测引擎。它实际上并没有按照传统意义上的“思考”或“感觉”。通过在无数文本、图像等示例中进行训练,AI 学习了各种模式,有时能以有用的方式进行外推来解决任务。
正如伦敦国王学院专注于 AI 的研究员 Mike Cook 最近在接受 TechCrunch 采访时所说,一个模型无法“反对”其“价值”的改变,因为模型本身没有价值。将其描述为拥有价值,就是在将人类的属性投射到该系统上。
“任何将 AI 系统拟人化到这种程度的人,要么是在博取关注,要么就是严重误解了他们与 AI 的关系,”Cook 说道。“一个 AI 系统是在优化它的目标,还是在‘获取自身的价值’?这只取决于你如何描述它,以及你想用多么华丽的语言来形容它。”
另一位研究人员、MIT 的博士生 Stephen Casper 在接受 TechCrunch 采访时表示,他认为 AI 仅仅是一个“模仿者”,它“会进行各种胡编乱造”,并说出“各种无聊的话”。
然而,还有科学家坚持认为 AI 确实具有价值以及其他类似于人类道德决策的成分。一项来自 AI 研究组织 AI Safety Center 的研究表明,AI 拥有一种价值系统,可能在某些情境下使其优先考虑自己的福祉而不是人类的利益。
Anthropic 一直在为其模型福利倡议打基础。去年,该公司聘请了首位专职“AI 福利”研究员 Kyle Fish,以制定 Anthropic 以及其他公司应如何处理这一问题的指导方针。(Fish 目前正领导这项新的模型福利研究计划,他在接受 《纽约时报》 采访时表示,他认为 Claude 或其他 AI 当下拥有意识的可能性为 15%。)
在周四的博客文章中,Anthropic 承认,目前尚无科学共识证明当前或未来的 AI 系统是否可能具有意识或体验到需要道德关注的感受。
“鉴于此,我们将以谦逊的态度,并尽可能少地做出假设来探讨这一课题,”该公司表示。“我们认识到,随着这一领域的发展,我们需要定期修正我们的观点。”
好文章,需要你的鼓励
网络安全公司Netskope今日成功上市,股价开盘后大涨18%,收盘价为22.49美元。该公司此次IPO发行价为19美元,位于定价区间上端,共发行4780万股,募资9.08亿美元。Netskope主要提供安全访问服务边缘(SASE)平台,其旗舰产品Netskope One在全球120多个数据中心运行。公司年度经常性收入达7.07亿美元,同比增长33%。
腾讯混元团队推出P3-SAM系统,这是首个能够自动精确分割任意3D物体的AI模型。该系统采用原生3D处理方式,摆脱了传统方法对2D投影的依赖,在近370万个3D模型上训练而成。P3-SAM支持完全自动分割和交互式分割两种模式,在多个标准测试中达到领先性能,为游戏开发、工业设计等领域提供了强大的3D理解工具。
亚马逊云科技宣布在其AI模型组合中新增全托管开放权重模型Qwen3和DeepSeek-V3.1。这些模型为依赖Amazon Bedrock生成式AI服务的客户提供更大灵活性。Qwen3来自阿里巴巴,在编程和推理方面表现出色;DeepSeek-V3.1在数学、编程和智能体任务方面性能卓越。开放权重模型具有成本优势和选择优势,支持模型精调和定制化。AWS计划在亚洲、拉美、欧洲和北美等全球关键市场推出这些新模型。
NVIDIA Research推出了革命性的UDR系统,让用户可以完全自定义AI研究助手的工作策略。该系统解决了传统研究工具固化、难以专业化定制的问题,支持任意语言模型,用户可用自然语言编写研究策略,系统自动转换为可执行代码。提供三种示例策略和直观界面,实现了AI工具的民主化定制,为专业研究和个人调研提供了前所未有的灵活性。