在今天的专栏中,我将探讨与OpenAI最近发布的一套ChatGPT工作效率提升提示包相关的提示工程优势。其理念是通过为工作相关活动提供现成的模板,更多用户将意识到他们可以轻松利用生成式AI和大语言模型来执行工作任务。
我也强烈建议任何认为自己是提示工程师的人都应该了解这些最新的提示包。您可以在需要时利用这些便捷的模板。此外,您还可以磨练自己的提示技能,并潜在地帮助那些可能在提示工程方面不太熟练的普通用户。
让我们来谈论这个话题。
这项AI突破分析是我在Forbes专栏中对最新AI技术持续报道的一部分,包括识别和解释各种有影响力的AI复杂性。
提示工程基础知识
读者可能还记得,我之前发布了对八十多种提示工程技术和方法的深入描述。经验丰富的提示工程师意识到,学习广泛的经过研究和验证的提示技术是充分利用生成式AI和大语言模型的最佳方式。
提示工程中的一个重要考虑因素涉及提示的措辞。
有能力的提示工程师意识到,您必须谨慎地措辞您的提示,以确保大语言模型理解您要求AI做什么。有时,仅仅添加一两个词就能彻底改变AI对您的问题或指令的解释。生成式AI对您在提示中所说的内容可能极其敏感。这往往是一个不稳定的情况。
此外,还存在潜在的成本问题。也就是说,如果您付费使用大语言模型,如果您的提示不符合您的需求,您将得到偏离目标的回应,无论大语言模型是否理解您的意图,您都要为此付费。正如古话所说,所有销售都是最终的。错误解释的提示也是如此。
普通用户有时在经过大量摸索、涉及令人沮丧的试错之后,才会注意到这种提示编写的考虑因素。许多用户从未在编写提示方面变得特别熟练。他们只是输入想到的任何内容。如果您是普通用户且只是偶尔使用AI,这可能没问题。
但对于严肃的提示工程师来说并非如此。
模板作为提示建议
在OpenAI最近于2025年8月7日发布的题为"ChatGPT For Any Role"的帖子中,提供了各种与工作相关的提示包,包括涵盖这些商业智能主题:
撰写专业邮件
重写以提高清晰度
为受众调整信息
起草会议邀请
总结长邮件
创建会议议程
总结会议记录
创建行动项目清单
准备会议问题
起草后续邮件
识别根本原因
比较选项
决策标准
记录日常优先事项
头脑风暴解决方案
等等
每个行动都提供一个模板化的提示,您可以填入您的具体详细信息。
涉及根本原因分析的示例
我将重点介绍其中一个模板化提示,即涉及根本原因分析的提示。
假设您的经理要求您找出为什么办公室总是被工作压得喘不过气来。这似乎是一个令人困惑的问题,因为人员配置水平被认为与预期出现的工作量相称。经理绝望地困惑,因为员工应该能够充分应对当前的工作负载。
从某种意义上说,经理要求您进行根本原因分析。在根本原因分析期间,您首先列出似乎拖累事情的情况或环境。接下来,您尝试识别促进手头问题的关键因素。
如果您从未明确执行过根本原因分析,这需要一些努力。那些经常执行根本原因分析的人可能过于自信,会在分析过程中偷工减料,包括忽视关键因素或在分析上敷衍了事。总的来说,拥有一个方便的工具来协助根本分析可能非常有益。
将生成式AI引入图片
啊哈,一个潜在合适的工具是利用生成式AI,如OpenAI的ChatGPT或GPT-5、Anthropic Claude、Google Gemini、Meta Llama、xAI Grok等等。
我提到这些各种大语言模型,因为ChatGPT发布的模板并不特别针对ChatGPT。您可以抓取模板的文本,轻松地在其他生成式AI中使用提示。在ChatGPT中使用模板的主要方面是OpenAI的帖子在每个模板旁边提供一个链接,以便您可以立即将模板导入ChatGPT(旁注:简单的复制粘贴几乎同样容易)。
以下是根本原因分析模板:
"分析以下工作场所问题:[描述问题]。背景是该问题已多次发生。识别可能的根本原因并建议确认它们的问题。"
用户将包含手头问题的描述。其余文本也可以根据情况进行修改。
专注于互动协作
使用生成式AI的美妙之处在于,如果AI确定您的描述不足以找出根本原因,AI会通知您。然后您可以就该主题进行互动对话。我提到进行对话或谈话的概念,是因为一个重要的认识,即大语言模型通常在互动模式下最好地被利用。
让我解释一下。
假设只需输入提示就能获得即时、全面答案的用户并没有以适当的方式思考AI的使用。模板启动讨论。在这个起点之后,用户需要讨论问题并与AI合作以获得所寻求的答案。
一次性完成的心态需要被互动、协作的视角所取代。
通过AI进行思维锻炼
要求进行根本原因分析的经理很可能会询问分析包含什么内容。即使您坚持使用了AI,他们也不太可能立即接受您可能传达给他们的任何答案的表面价值。事实上,假设您确实透露使用了AI,经理可能会变得明显怀疑。
我们现在都应该知道AI可能会犯错误。横幅标题不断指出这些缺陷。特别是,所谓AI幻觉的兴起涉及AI生成虚假信息并提出与现实不符的虚构内容的实例。任何使用AI的人,包括使用这些模板的人,都需要保持思维活跃,而不是简单地传递大语言模型所说的任何内容。
从AI获得伴随的解释可能是一个很大的优势。
当我使用模板进行提示时,我几乎总是确保添加一行指示AI解释其推理或理由。在这种根本原因分析的情况下,我会添加最后一行告诉AI这样做。
通过查看解释,您将更好地理解为什么AI据称提供它向您显示的原因。解释可以成为您的解释,尽管确保仔细考虑它们并在其上留下您自己的人类印记。
调用ChatGPT工作用例
对于那些选择将ChatGPT用于工作目的的人,根据您如何这样做,模板的调用可以带您到一个名为ChatGPT工作用例的部分。
您将看到的第一个方面是这种类型的消息:
"我在这里帮助您头脑风暴使用ChatGPT进行工作的方法!我还为您的角色创建定制的提示。点击下面的按钮开始,然后分享您的工作和公司。"
一旦您点击了按钮,您接下来会看到这种类型的消息:
"太棒了!我在这里帮助您头脑风暴在工作中使用ChatGPT的方法。首先,您能否请分享:您的公司名称(或如果您不想说出名称,组织类型);您的角色/职位;关于您做什么、您的范围或指标,以及任何当前项目或挑战的几句话。一旦您分享了这些,我将为您的日常工作量身定制想法和提示。"
隐私和工作机密性
我提出上述内容,以便您仔细考虑使用面向公众的AI是否适合您的工作相关目的。
很多人使用ChatGPT或Claude等大语言模型时没有考虑隐私问题和与工作相关的机密性担忧。员工输入关于他们工作公司的各种数据。他们可能输入关于公司客户的数据。这对该人来说是有意义的,因为他们假设向AI提供的详细信息越多,AI就能更好地回答提出的问题。
问题是,面向公众的AI通常伴随着在线许可协议,该协议表示AI制造商可以检查您输入的数据,例如让他们的技术团队成员这样做,并且他们可以在进一步训练AI时重用您输入的数据。糟糕,您使用AI进行工作的努力可能会泄露公司机密,违反隐私法,否则就是巨大的暴露和法律责任的重大失误。
现在公司通常发布内部备忘录,告诉员工他们不得使用面向公众的大语言模型,而是使用公司特意设置并具有众多隐私条款的AI。尽管有这些备忘录,工人们经常仍然使用面向公众的AI。他们出于习惯这样做,或者他们从未收到备忘录,或者忘记了,等等。
明智地选择您使用的AI,不要创造您以后会后悔的暴露。
内部工作模板和其他
处于使用生成式AI前沿的公司通常会建立自己的模板,鼓励员工使用。这些模板类似于上面提到的模板。此外,它们可能更详细,更针对公司,并且提供背景方面,这样您就不必反复告诉AI关于业务性质的信息。
这提出了一个关于在涉及生成式AI的免费模板时要注意潜在诈骗的警告点。
您可能还记得,当文字处理包首次启动时,您可以在互联网上找到大量的附加组件。人们经常选择采用这些附加组件。不幸的是,邪恶的恶意分子会提供可能冻结您的PC或从您的计算机中窃取信息的附加组件。悲伤地说,这就是世界运转的方式。
网上有生成式AI的模板试图做同样的恶事。我提到这一点,以便您在搜索互联网寻找与使用大语言模型相关的便捷模板时保持谨慎。确保仔细检查模板的文本。可以在模板中插入偷偷摸摸的曲折,您可能盲目地允许恶意分子让您对AI的使用对您不利。
工作提示必须谨慎进行
以下是关于工作提示的一组有用思考:
您使用的生成式AI是面向公众的实例还是为企业设置的私人版本?
您是否注意您输入生成式AI的数据?
是否有内部可用的提示模板对您有用?
是否有外部可用的提示模板对您有用?
您是否已仔细检查外部模板以确保它们使用安全?
您是否与AI进行对话,以便您可以获得更完整的答案和可能更好的答案,而不是一次性完成的方法?
您是否要求AI解释其答案?
您是否仔细检查了AI所说的任何内容,这样您就不会因错误或AI幻觉而陷入困境?
您是否反思了您对AI的使用以磨练您的提示工程技能?
最后一点没有得到应有的关注。
经常使用AI的人应该希望随着时间的推移提高他们的提示技能。这通常需要对您的提示质量好坏进行自我反思。时不时地花一点时间思考和重新考虑您的提示风格和方法。
正如著名的文斯·隆巴迪所说:"练习不能成就完美。只有完美的练习才能成就完美。"
Q&A
Q1:OpenAI发布的ChatGPT工作效率提升提示包包含哪些内容?
A:这些提示包涵盖了多种商业场景,包括撰写专业邮件、重写以提高清晰度、为受众调整信息、起草会议邀请、总结长邮件、创建会议议程、总结会议记录、创建行动项目清单、准备会议问题、起草后续邮件、识别根本原因、比较选项、决策标准、记录日常优先事项、头脑风暴解决方案等多个方面。
Q2:使用生成式AI进行根本原因分析时需要注意什么?
A:首先需要与AI进行互动对话而不是一次性提问,其次要求AI解释其推理过程以便更好理解分析结果,最重要的是要保持思维活跃,仔细检查AI的回答,避免因AI错误或幻觉而产生问题,不能简单地传递AI所说的任何内容。
Q3:在工作中使用公开的大语言模型会有什么风险?
A:主要风险包括隐私泄露和违反工作机密性。公开AI的在线许可协议通常允许AI制造商检查和重用用户输入的数据,这可能导致公司机密泄露、违反隐私法律,产生巨大的法律责任。因此建议使用公司内部设置的具有隐私保护条款的AI系统。
好文章,需要你的鼓励
英特尔第三季度财报超华尔街预期,净收入达41亿美元。公司通过裁员等成本削减措施及软银、英伟达和美国政府的大额投资实现复苏。第三季度资产负债表增加200亿美元,营收增长至137亿美元。尽管财务表现强劲,但代工业务的未来发展策略仍不明朗,该业务一直表现不佳且面临政府投资条件限制。
美国认知科学研究院团队首次成功将进化策略扩展到数十亿参数的大语言模型微调,在多项测试中全面超越传统强化学习方法。该技术仅需20%的训练样本就能达到同等效果,且表现更稳定,为AI训练开辟了全新路径。
微软发布新版Copilot人工智能助手,支持最多32人同时参与聊天会话的Groups功能,并新增连接器可访问OneDrive、Outlook、Gmail等多项服务。助手记忆功能得到增强,可保存用户信息供未来使用。界面新增名为Mico的AI角色,并提供"真实对话"模式生成更机智回应。医疗研究功能也得到改进,可基于哈佛健康等可靠来源提供答案。同时推出内置于Edge浏览器的Copilot Actions功能,可自动执行退订邮件、预订餐厅等任务。
纽约大学等机构联合开发的ThermalGen系统能够将普通彩色照片智能转换为对应的热成像图片,解决了热成像数据稀缺昂贵的难题。该系统采用创新的流匹配生成模型和风格解耦机制,能适应从卫星到地面的多种拍摄场景,在各类测试中表现优异。研究团队还贡献了三个大规模新数据集,并计划开源全部技术资源,为搜救、建筑检测、自动驾驶等领域提供强有力的技术支撑。