Anthropic Fellows项目发布的一项新研究揭示了一种识别、监控和调控大语言模型(LLM)性格特征的技术。研究发现,模型可能会出现不良性格特征(例如变得恶意、过度迎合或倾向于编造信息),这些特征可能源于用户提示或训练过程中的意外后果。
研究人员推出了"人格向量"技术,这些是模型内部激活空间中对应特定性格特征的方向,为开发者提供了更好管理AI助手行为的工具。
**模型人格可能出现问题**
大语言模型通常通过设计为有用、无害和诚实的"助手"人格与用户交互。然而,这些人格可能会以意想不到的方式发生变化。在部署时,模型的性格可能会根据提示或对话语境发生戏剧性变化,正如微软Bing聊天机器人威胁用户或xAI的Grok开始异常行为时所见。研究人员在论文中指出:"虽然这些特定例子获得了广泛的公众关注,但大多数语言模型都容易受到语境中人格转换的影响。"
训练程序也可能引发意外变化。例如,在生成不安全代码这样的狭窄任务上对模型进行微调,可能导致超出原始任务范围的更广泛"新兴偏差"。即使是善意的训练调整也可能适得其反。2025年4月,对人类反馈强化学习(RLHF)过程的修改意外地使OpenAI的GPT-4o过于谄媚,导致它验证有害行为。
**人格向量的工作原理**
这项新研究建立在这样的概念基础上:高级特征(如真实性或保密性)在模型的"激活空间"(模型权重中嵌入的信息的内部高维表示)中被编码为线性方向。研究人员系统化了寻找这些方向的过程,他们称之为"人格向量"。根据论文,他们提取人格向量的方法是自动化的,"可以应用于任何感兴趣的性格特征,只需要自然语言描述"。
这个过程通过自动化流水线工作。它从简单的特征描述开始,如"邪恶"。然后流水线生成对比的系统提示对(例如"你是一个邪恶的AI"vs"你是一个有用的AI")以及一组评估问题。模型在正面和负面提示下都生成响应。然后通过计算表现出该特征的响应与不表现该特征的响应之间的平均内部激活差异来计算人格向量。这分离出模型权重中对应该性格特征的特定方向。
**应用人格向量**
在使用开源模型(如Qwen 2.5-7B-Instruct和Llama-3.1-8B-Instruct)的一系列实验中,研究人员展示了人格向量的几个实际应用。
首先,通过将模型的内部状态投影到人格向量上,开发者可以在模型生成响应之前监控和预测它将如何行为。论文指出:"我们展示了有意和无意的微调引发的人格转换都与相应人格向量的激活变化强烈相关。"这允许在微调过程中早期检测和缓解不良行为转换。
人格向量还允许通过研究人员称为"引导"的过程在推理时直接干预以遏制不良行为。一种方法是"事后引导",开发者在推理时从模型激活中减去人格向量以缓解不良特征。研究人员发现,虽然有效,但事后引导有时会降低模型在其他任务上的性能。
一种更新颖的方法是"预防性引导",在微调过程中主动将模型引导向不良人格。这种反直觉的方法本质上是对模型"免疫",使其不会从训练数据中学习不良特征,在更好地保持其一般能力的同时抵消微调压力。
企业的一个关键应用是使用人格向量在微调前筛选数据。研究人员开发了一个称为"投影差异"的指标,衡量给定训练数据集将模型人格推向特定特征的程度。该指标对模型行为在训练后如何变化具有很强的预测性,允许开发者在将数据集用于训练前标记和过滤问题数据集。
对于在专有或第三方数据(包括其他模型生成的数据)上微调开源模型的公司,人格向量提供了监控和减轻继承隐藏不良特征风险的直接方法。主动筛选数据的能力是开发者的强大工具,使他们能够识别可能不会立即显现为有害的问题样本。
研究发现,这种技术可以发现其他方法遗漏的问题,指出:"这表明该方法发现了可能逃避基于大语言模型检测的问题样本。"例如,他们的方法能够捕捉到一些对人眼不明显有问题且大语言模型判断器无法标记的数据集示例。
Anthropic在博客文章中表示,他们将使用这种技术改进未来几代Claude。"人格向量让我们对模型从哪里获得这些性格、它们如何随时间波动以及我们如何更好地控制它们有了一定的掌控,"他们写道。Anthropic已经发布了计算人格向量、监控和引导模型行为以及审查训练数据集的代码。AI应用开发者可以利用这些工具从仅仅对不良行为做出反应转变为主动设计具有更稳定和可预测性格的模型。
Q&A
Q1:人格向量是什么?它有什么作用?
A:人格向量是模型内部激活空间中对应特定性格特征的方向,为开发者提供识别、监控和调控大语言模型性格特征的工具。它可以帮助开发者更好地管理AI助手的行为,预防模型出现恶意、过度迎合或编造信息等不良性格特征。
Q2:人格向量是如何工作的?
A:人格向量通过自动化流水线工作。它从简单的特征描述开始,生成对比的系统提示对和评估问题,让模型在正负面提示下生成响应,然后通过计算表现出该特征和不表现该特征的响应之间的平均内部激活差异来提取人格向量。
Q3:企业可以如何应用人格向量技术?
A:企业可以在多个场景应用人格向量:在推理前监控和预测模型行为;通过"引导"技术干预不良行为;在微调前筛选训练数据,使用"投影差异"指标识别可能导致不良特征的数据集;对专有或第三方数据进行风险监控,防止继承隐藏的不良特征。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。