Anthropic Fellows项目发布的一项新研究揭示了一种识别、监控和调控大语言模型(LLM)性格特征的技术。研究发现,模型可能会出现不良性格特征(例如变得恶意、过度迎合或倾向于编造信息),这些特征可能源于用户提示或训练过程中的意外后果。
研究人员推出了"人格向量"技术,这些是模型内部激活空间中对应特定性格特征的方向,为开发者提供了更好管理AI助手行为的工具。
**模型人格可能出现问题**
大语言模型通常通过设计为有用、无害和诚实的"助手"人格与用户交互。然而,这些人格可能会以意想不到的方式发生变化。在部署时,模型的性格可能会根据提示或对话语境发生戏剧性变化,正如微软Bing聊天机器人威胁用户或xAI的Grok开始异常行为时所见。研究人员在论文中指出:"虽然这些特定例子获得了广泛的公众关注,但大多数语言模型都容易受到语境中人格转换的影响。"
训练程序也可能引发意外变化。例如,在生成不安全代码这样的狭窄任务上对模型进行微调,可能导致超出原始任务范围的更广泛"新兴偏差"。即使是善意的训练调整也可能适得其反。2025年4月,对人类反馈强化学习(RLHF)过程的修改意外地使OpenAI的GPT-4o过于谄媚,导致它验证有害行为。
**人格向量的工作原理**
这项新研究建立在这样的概念基础上:高级特征(如真实性或保密性)在模型的"激活空间"(模型权重中嵌入的信息的内部高维表示)中被编码为线性方向。研究人员系统化了寻找这些方向的过程,他们称之为"人格向量"。根据论文,他们提取人格向量的方法是自动化的,"可以应用于任何感兴趣的性格特征,只需要自然语言描述"。
这个过程通过自动化流水线工作。它从简单的特征描述开始,如"邪恶"。然后流水线生成对比的系统提示对(例如"你是一个邪恶的AI"vs"你是一个有用的AI")以及一组评估问题。模型在正面和负面提示下都生成响应。然后通过计算表现出该特征的响应与不表现该特征的响应之间的平均内部激活差异来计算人格向量。这分离出模型权重中对应该性格特征的特定方向。
**应用人格向量**
在使用开源模型(如Qwen 2.5-7B-Instruct和Llama-3.1-8B-Instruct)的一系列实验中,研究人员展示了人格向量的几个实际应用。
首先,通过将模型的内部状态投影到人格向量上,开发者可以在模型生成响应之前监控和预测它将如何行为。论文指出:"我们展示了有意和无意的微调引发的人格转换都与相应人格向量的激活变化强烈相关。"这允许在微调过程中早期检测和缓解不良行为转换。
人格向量还允许通过研究人员称为"引导"的过程在推理时直接干预以遏制不良行为。一种方法是"事后引导",开发者在推理时从模型激活中减去人格向量以缓解不良特征。研究人员发现,虽然有效,但事后引导有时会降低模型在其他任务上的性能。
一种更新颖的方法是"预防性引导",在微调过程中主动将模型引导向不良人格。这种反直觉的方法本质上是对模型"免疫",使其不会从训练数据中学习不良特征,在更好地保持其一般能力的同时抵消微调压力。
企业的一个关键应用是使用人格向量在微调前筛选数据。研究人员开发了一个称为"投影差异"的指标,衡量给定训练数据集将模型人格推向特定特征的程度。该指标对模型行为在训练后如何变化具有很强的预测性,允许开发者在将数据集用于训练前标记和过滤问题数据集。
对于在专有或第三方数据(包括其他模型生成的数据)上微调开源模型的公司,人格向量提供了监控和减轻继承隐藏不良特征风险的直接方法。主动筛选数据的能力是开发者的强大工具,使他们能够识别可能不会立即显现为有害的问题样本。
研究发现,这种技术可以发现其他方法遗漏的问题,指出:"这表明该方法发现了可能逃避基于大语言模型检测的问题样本。"例如,他们的方法能够捕捉到一些对人眼不明显有问题且大语言模型判断器无法标记的数据集示例。
Anthropic在博客文章中表示,他们将使用这种技术改进未来几代Claude。"人格向量让我们对模型从哪里获得这些性格、它们如何随时间波动以及我们如何更好地控制它们有了一定的掌控,"他们写道。Anthropic已经发布了计算人格向量、监控和引导模型行为以及审查训练数据集的代码。AI应用开发者可以利用这些工具从仅仅对不良行为做出反应转变为主动设计具有更稳定和可预测性格的模型。
Q&A
Q1:人格向量是什么?它有什么作用?
A:人格向量是模型内部激活空间中对应特定性格特征的方向,为开发者提供识别、监控和调控大语言模型性格特征的工具。它可以帮助开发者更好地管理AI助手的行为,预防模型出现恶意、过度迎合或编造信息等不良性格特征。
Q2:人格向量是如何工作的?
A:人格向量通过自动化流水线工作。它从简单的特征描述开始,生成对比的系统提示对和评估问题,让模型在正负面提示下生成响应,然后通过计算表现出该特征和不表现该特征的响应之间的平均内部激活差异来提取人格向量。
Q3:企业可以如何应用人格向量技术?
A:企业可以在多个场景应用人格向量:在推理前监控和预测模型行为;通过"引导"技术干预不良行为;在微调前筛选训练数据,使用"投影差异"指标识别可能导致不良特征的数据集;对专有或第三方数据进行风险监控,防止继承隐藏的不良特征。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
莫斯科高等经济学院研究员尼古拉·斯克里普科开发了IFEval-FC基准测试,专门评估大语言模型在函数调用中遵循格式指令的能力。研究发现,即使是GPT-5和Claude Opus 4.1等最先进模型,在处理看似简单的格式要求时准确率也不超过80%,揭示了AI在实际应用中的重要局限性。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室联合多家机构推出MinerU2.5文档解析模型,仅用12亿参数就在文本、公式、表格识别等任务上全面超越GPT-4o等大型模型。该模型采用创新的两阶段解析策略,先进行全局布局分析再做局部精细识别,计算效率提升一个数量级。通过重新定义任务标准和构建高质量数据引擎,MinerU2.5能准确处理旋转表格、复杂公式、多语言文档等挑战性内容,为文档数字化提供了高效解决方案。