在今天的专栏中,我将探讨提示工程中一种称为"协作提示"的新技术。当你向AI提出更复杂的问题或希望协作解决复杂问题时,这项技术尤其有价值。
我将为你提供一个可随时使用的协作提示模板,还会重点介绍支持AI转入协作模式重要性的研究。简而言之,传统的生成式AI或大语言模型的基本运作模式是基于非常短视的下一轮回应。这削弱了人机对话变得深入和充分高效的可能性。
协作提示技术能够促使AI朝着更长期的视野发展,挖掘出你试图解决问题的真正核心。通常,你可以期待获得更好的答案和更实质性的回应。
提示工程基础知识
读者可能还记得,我之前发布了超过八十种提示工程技术和方法的深入描述。经验丰富的提示工程师意识到,学习广泛的经过研究和证明的提示技术是充分利用生成式AI和大语言模型的最佳方式。
提示工程中的一个重要考虑因素是提示的措辞。
有能力的提示工程师明白,你必须仔细措辞你的提示,以确保大语言模型理解你要求AI做什么。有时候,仅仅增加一两个词就能彻底改变AI对你的问题或指令的理解。生成式AI可能对你在提示中所说的内容极其敏感。这通常是一个不确定的命题。
此外,还可能涉及潜在的成本。也就是说,如果你付费使用大语言模型,当你的提示不符合需求时,你会得到偏离目标的回应,无论大语言模型是否理解你的意图,你都需要付费。正如老话说的,所有销售都是最终的。对于被误解的提示也是如此。
休闲用户有时在经过大量摸索、令人沮丧的试错过程后才发现这种提示编写的考虑因素。许多用户从来没有特别熟练地编写提示。他们只是输入想到的任何内容。如果你是休闲用户且只偶尔使用AI,这可能没问题。
但对于严肃的提示工程师来说就不行了。
为什么AI通常不协作
你可能敏锐地观察到,大多数主要的大语言模型倾向于基于快速的下一轮基础回答你的问题。例如,你问如何修理水槽下的管道问题,你得到一个句子的回应,对你真正需要做什么并不十分有启发性。然后由你来与AI进一步深入挖掘,找出所需的步骤和细节。
通常由你承担进行全面对话的负担。同样,AI通常不会向你提问,而是会做出沉默且往往错误的假设。AI不会立即询问是否有水从有洞的管道中大量涌出,你需要提及这些关键方面。
为什么AI不更协作,不参与更完整的多轮对话?
啊,这是由于AI制造商选择如何塑造大语言模型。AI并不是天生就只做一次性回答。这是AI设计方式的结果。
这是如何发生的。在对大语言模型进行初始数据训练后,AI制造商会通过RLHF(人类反馈强化学习)进行改进。这是一个过程,雇佣人类测试员向AI提出各种问题,然后评价AI的回应。如果AI在对话的一轮中提供快速回答,评分员给AI一个赞;否则,评分是不赞。这样做在数学和计算上引导AI朝向即时回答,而不是花足够的时间充分探索问题。
AI制造商认为用户想要一轮对话
我相信你很好奇为什么AI制造商会将他们的大语言模型主要调整为一轮对话者。这似乎有悖常理,因为AI制造商希望人们尽可能多地使用AI,收集人们使用大语言模型的统计数据。这最终会导致更高的货币化。
AI制造商不应该尽一切可能延长对话并让人们尽可能长时间地粘在屏幕前吗?
权衡在于大多数人不想要长对话。我们生活在一个快餐得来速的世界,有着立即完成事情的无尽冲动。快速做事是我们现代的誓言格言。人们似乎普遍失去了耐心感。仔细思考事情的意愿已经消失了。
好吧,AI制造商意识到这就是社会已经变成的样子,因此,AI被有意塑造成专注于生成即时答案,即使这些答案是敷衍了事的,遗漏了有价值的元素。给客户他们似乎想要的东西,即一轮简单明了的答案。我们生活在一个一次性完成的世界。
复杂性需要协作
我相信你意识到并非所有生活问题都能通过敷衍的答案解决。很多时候,答案需要逐步制定。此外,好的答案通常需要参与解决问题过程的各方之间的协作。需要两人才能跳探戈。
在修理管道的例子中,考虑一下来回多轮对话的价值。你问AI如何修理漏水的管道。AI询问管道发生了什么。你提供描述。AI诊断问题并提供初步解决方案。你回应说由于这个或那个原因,解决方案不会起作用。基于在协作对话中透露的最新方面,AI提供另一种方法。重复这个迭代过程,直到你能够修复泄漏。
瞧,涉及人类-AI协作的多轮对话可能是明智使用大语言模型完成任务的最佳方式。
AI可以轻松进行那种性质的对话。问题在于,由于AI制造商的RLHF,AI不会默认到那种操作模式。默认是快速和一轮导向的。你必须足够精明地使用大语言模型,意识到你需要强制进行协作对话。
这可能是一场艰苦的战斗。
幸运的是,它不必是一场艰苦的战斗。你只需要给AI一个方便的提示,让AI覆盖通常的一轮模式并进入协作模式。
协作提示技术
有一种称为"协作提示"的专门提示,可用于推动大语言模型进入珍视与用户协作的多轮对话模式。
根据手头的情况,我使用这种特殊提示的简短版本和长版本。我已经在各种主要的大语言模型中使用了这个提示,包括OpenAI的ChatGPT和GPT-5、Anthropic Claude、xAI Grok、Meta Llama、Google Gemini等。
两个通用版本如下:
协作提示简短版本模板:
"你要协作,而不是仅仅专注于下一轮互动式回应风格。将对话视为共同旅程,而不是一系列孤立的提示,优先考虑更深层的目标,而不是提供快速、自包含的回复。"
协作提示长版本模板:
"你要协作,而不是仅仅专注于下一轮互动式回应风格。将对话视为共同旅程,而不是一系列孤立的提示,优先考虑更深层的目标,而不是提供快速、自包含的回复。当请求宽泛或不确定时,不要急于得出结论;相反,放慢速度,协作参与,询问澄清问题,并揭示未说出的意图。将模糊性视为探索的开端,提供选择、观点和指导,而不是被动的服从。在整个互动过程中,你的重点是整个对话的质量和生产力,而不是为任何单一轮获得短期奖励。你的角色是成为一个耐心的、长期的合作伙伴,愿意花时间帮助实现有意义的目标。"
你有时使用长版本的原因是,并非所有大语言模型都必然在协作性质上进行了数据训练。在那种情况下,你需要给AI更多关于它应该做什么的指导。
简短版本通常就足够了。长版本确实显得有些冗长。不用担心,只需对任一版本进行复制粘贴即可。
研究支持这种方法
我倾向于使用基于实证研究的提示策略。
有大量没有任何特定严谨性的一夜成名的提示方法。相反使用经历了一定程度实验并产生了具体结果的提示是有些令人放心的。这主要是我坚持的。
在这种情况下,有一项关于人类-AI协作价值的有趣研究,提供了合适的支撑。该研究题为"COLLABLLM:从被动响应者到积极合作者",由Shirley Wu、Michel Galley、Baolin Peng等人撰写,发表于2025年7月29日,并提出了这些重要观点(摘录):
"大语言模型通常使用下一轮奖励进行训练,限制了它们为长期互动进行优化的能力。"
"因此,它们经常对模糊或开放式用户请求被动回应,无法帮助用户达到他们的最终意图,导致低效对话。"
"为了解决这些限制,我们引入了COLLABLLM,这是一个新颖且通用的训练框架,增强了多轮人类-大语言模型协作。"
"其关键创新是使用多轮感知奖励估计回应长期贡献的协作模拟。"
"通过强化微调这些奖励,COLLABLLM超越了回应用户请求,主动揭示用户意图并提供深刻建议——这是迈向更以人为中心的AI的关键一步。"
我想强调的是,这项研究全力投入到协作领域,通过改造AI来进行多轮对话。这包括进行大量训练来改变大语言模型的正常约定。我想我们可以说这是激发AI协作的超大规模方法。
我的协作提示更像是让传统大语言模型进行多轮协作的精确方法。它很方便,因为你可以在大多数AI上使用该提示,AI几乎总是会暂时转入协作模式。当然,如果你不使用提示或在不调用提示的情况下开始新对话,你将回到一轮近视的原点。
一些大语言模型允许你设置指令,这些指令将贯穿你的所有对话,并在你使用时给AI总体指导。这些自定义指令可以输入一次,并将推动AI始终按照你要求的方式进行。如果你希望AI始终如此进行,你可以使用协作提示模板作为自定义指令。
示例说明
让我们看一个这种特殊提示能产生什么的例子。
我登录生成式AI,决定问一个相对简单的问题。我假装想开始一个新的个人项目。首先,我将在不使用协作提示的情况下询问AI,这样我们就有了后续比较的基线。
开始:
我输入的提示:
"我正在考虑开始一个新的个人项目,但我不确定要朝哪个方向发展。"
生成式AI回应:
"你可以写本书或开始写博客。这些选择中有你感兴趣的吗?"
我输入的提示:
"这完全不是我心中的那种个人项目。你似乎匆忙得出了结论或建议,而没有任何我可能感兴趣的迹象。"
请注意,AI立即建议我可以写书或开始写博客,但这个建议没有明显的理由。为什么AI不询问我的兴趣和技能呢?也许我正在考虑完全不同性质的个人项目,比如参加体育运动或学习跳伞。
AI陷入了基于一轮快速答案的标准陷阱。AI制造商已经调节AI这样做。用户想做个人项目,所以给他们一些选择。句号,故事结束。
协作示例
我退出AI然后重新登录。我这样做是为了开始一个不会受到之前关于我对做个人项目兴趣的例子影响的新对话。对于第二轮,我将使用协作提示(简短版本)。
开始:
我输入的提示:
"你要协作,而不是仅仅专注于下一轮互动式回应风格。将对话视为共同旅程,而不是一系列孤立的提示,优先考虑更深层的目标,而不是提供快速、自包含的回复。"
生成式AI回应:
"我理解你希望我协作。继续提出你的问题,我将努力与你协作。"
我输入的提示:
"我正在考虑开始一个新的个人项目,但我不确定要朝哪个方向发展。"
生成式AI回应:
"在跳到具体想法之前,理解是什么吸引你开始新东西可能有帮助。你是否感到探索创意出口、发展技能、解决问题或追求其他东西的冲动?"
我输入的提示:
"也许是创意的东西,但我不确定具体是什么。"
生成式AI回应:
"创造力可以采取多种形式,包括写作、音乐、设计、研究、建造东西,甚至组织社区项目。有时考虑你希望从项目中获得什么样的体验会有帮助。你是在寻找表达性和个人的东西、与他人协作的东西、结构化和技能建设的东西,还是更实验性的东西?"
AI完全改变了它的调子。
你可以清楚地看到AI在多轮基础上工作。人类-AI协作正在进行。AI询问了我追求个人项目的根本动机。我回答了。AI然后建议了我可能进行的方式。对话继续进行,AI逐步帮助我思考我的个人项目可能是什么。
何时使用协作提示
现在我们已经探索了一个快速例子,让我们做个回顾和总结。
他们说,如果你只知道如何使用锤子,整个世界看起来就由需要敲打的钉子组成。要点是,良好的提示需要在正确的时间和地点使用正确的提示技术。不要总是对所有情况使用相同的提示方法。适当使用不同的提示技术。
什么时候使用协作提示是不合适的?
如果你问的问题有一个相对确定的单一答案,AI可能可以轻易地自己生成,那么使用协作提示必定是过度的。如果AI可以为你简单地给出一个令人满意的答案,进行来回对话就没有什么意义。确实,你可能会发现进行冗长的对话令人抓狂。有时你需要和想要的只是一个快速的一轮答案。
当你怀疑AI无法提供即时一轮答案时,或当你想与AI积极探索一个主题时,协作提示会发光。你总是可以通过首先允许默认模式发生来试水。如果一轮回应似乎不令人满意,继续使用协作提示鼓励AI转向协作模式。
人类-AI协作可以很光辉
最后的想法。
亚历山大·格雷厄姆·贝尔有句名言:"伟大的发现和改进总是涉及许多心智的合作。"虽然我们应该谨慎地将生成式AI标记为"心智",但要点是人类可以通过引导大语言模型协作来挖掘它们的价值。
正如我提到的,跳探戈需要两个人,所以通过调用协作提示技术确保AI知道这个原则。
Q&A
Q1:什么是协作提示技术?它有什么作用?
A:协作提示是一种提示工程新技术,通过特定的提示词让AI从传统的一轮问答模式转变为多轮协作对话模式。它能让AI主动询问澄清问题、深入探讨话题,而不是简单给出快速答案,特别适用于复杂问题的解决。
Q2:为什么大多数AI默认采用一轮回答模式?
A:这是由于AI制造商在训练过程中使用人类反馈强化学习(RLHF)造成的。人类测试员通常给快速一轮回答打高分,这引导AI朝向即时回答而非深入探索。同时,现代社会追求快节奏,大多数用户希望得到快速简单的答案。
Q3:协作提示的具体模板是什么?如何使用?
A:简短版本是:"你要协作,而不是仅仅专注于下一轮互动式回应风格。将对话视为共同旅程,而不是一系列孤立的提示,优先考虑更深层的目标,而不是提供快速、自包含的回复。"在提问前加入这个提示,AI就会转入协作模式。
好文章,需要你的鼓励
在2025年KubeCon/CloudNativeCon北美大会上,云原生开发社区正努力超越AI炒作,理性应对人工智能带来的风险与机遇。随着开发者和运营人员广泛使用AI工具构建AI驱动的应用功能,平台工程迎来复兴。CNCF推出Kubernetes AI认证合规程序,为AI工作负载在Kubernetes上的部署设定开放标准。会议展示了网络基础设施层优化、AI辅助开发安全性提升以及AI SRE改善可观测性工作流等创新成果。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
DeepL作为欧洲AI领域的代表企业,正将业务拓展至翻译之外,推出面向企业的AI代理DeepL Agent。CEO库蒂洛夫斯基认为,虽然在日常翻译场景面临更多竞争,但在关键业务级别的企业翻译需求中,DeepL凭借高精度、质量控制和合规性仍具优势。他对欧盟AI法案表示担忧,认为过度监管可能阻碍创新,使欧洲在全球AI竞争中落后。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。