我们每个人使用 AI 聊天机器人的体验都不尽相同。就像 Google 搜索对每个人的结果都不一样一样,人工智能的输出也千差万别,从平淡无奇到精彩绝伦。这一切都取决于你的提示词有多好、聊天机器人对你的"了解"程度以及你与它互动的方式。
如果你把 ChatGPT 当作 Google 搜索的替代品,并且倾向于保持未登录状态,它能参考的个人对话就会较少。ChatGPT 的记忆能力会随着使用次数的增加而提升。如果你没有登录,它就无法将对话与你的账号关联,也就无法了解你经常寻求的信息类型和答案。
虽然有些人在构建自定义 GPT,但对普通用户来说,"训练" ChatGPT 就足够了。
无论如何,千万不要向 AI 上传个人信息、财务账户、医疗记录、机密信息或登录信息。一旦信息进入 AI 工具,你就无法收回,所以在使用 AI 时要始终保持警惕。
ChatGPT 的记忆功能是什么?
如果启用了 ChatGPT 的记忆功能(默认开启),它会捕捉细节和偏好来为你定制回应。点击设置,然后进入个性化设置来检查是否开启,并可以删除特定对话。
值得浏览一下 ChatGPT 存储的"记忆",因为可能存在需要手动删除的错误。例如,它说我有两个孩子,但事实并非如此。
这有点令人不安——由于我写了一篇关于使用 ChatGPT 帮助我偿还 18,000 美元债务的实验文章(结果并不理想),它知道了我使用的银行。
如果你对 ChatGPT 保存的某些数据点(比如你的银行信息)感到不舒服,就删除它。建议每隔几周就这样做一次,以帮助 ChatGPT 做出正确的回应。可以把这想象成清理缓存。
"训练" AI 到底意味着什么?
"训练" ChatGPT 涉及上传独特的数据,如 PDF、政策和客服记录,以创造更个性化的体验。
如果你只是日常个人使用,可能不需要创建自己的 GPT。对于日常个人使用,"训练" AI 只是在提示词或文档上传时提供额外的上下文。例如,附上你的简历和职位描述链接来创建定制的求职信。(这种训练不要与 OpenAI 进行的 AI 模型训练混淆。)
训练 ChatGPT 简单来说就是教它记住关于你的信息。比如,你可以花几分钟输入诸如"我刚搬到纽约市"或"记住我是素食主义者"之类的信息。
你还可以问它: - 你记得关于我的什么? - 你需要什么信息来更好地了解我? - 我上一个项目最后进展如何?
另一个有用的训练功能是在设置中填写"自定义 ChatGPT"部分。
充分利用"ChatGPT 应该知道的其他信息"框。分享你的习惯、喜好、当前的兴趣、人生目标以及任何你希望它了解的可能在未来询问信息时相关的内容。例如:"我喜欢跑步。我是素食主义者。我正在训练马拉松。"
如果你上传文档,可以通过提出只有从你的数据中才能知道的具体问题来测试它。看看它存储了什么,并询问它为什么做出这样的"决定"。
假设我想让 ChatGPT 帮我想出故事创意来回应一个故事征集。我可以上传编辑笔记和我的简历,然后让 ChatGPT 根据我的经验提出三个有力的故事创意。
虽然我永远不会直接采用 AI 的创意,但它是一个很好的思维伙伴,可以提供创意的萌芽。例如,ChatGPT 提到了一个来自 LGBTQ+ 社区的 TikTok 塔罗牌热潮。这表明 ChatGPT 从过去的对话中了解到我在同性关系中,因为我的简历中并没有提到 LGBTQ+。
请记住,训练 ChatGPT 是一个持续的过程。它需要通过多次对话和数月时间来微调。使用得越多,效果就越好。
只是不要在告诉 ChatGPT 信息时太过随意。它可能会给你一种与聊天机器人虚假的联系感。而且在发生数据泄露时,它可能会将你的个人信息泄露给任何人。
好文章,需要你的鼓励
这项由索非亚大学INSAIT和苏黎世联邦理工学院共同完成的研究,揭示了大语言模型在数学定理证明中普遍存在的"迎合性"问题。研究团队构建了BrokenMath基准测试集,包含504道精心设计的错误数学命题,用于评估主流AI模型能否识别并纠正错误陈述。
约翰斯·霍普金斯大学研究团队提出了创新的隐私保护AI文本生成方法,通过"控制代码"系统指导AI生成虚假敏感信息来替代真实数据。该方法采用"藏身于众"策略,在医疗法律等敏感领域测试中实现了接近零的隐私泄露率,同时保持了高质量的文本生成效果,为高风险领域的AI应用提供了实用的隐私保护解决方案。
实验室和真实使用测试显示,iPhone Air电池续航能够满足一整天的典型使用需求。在CNET进行的三小时视频流媒体压力测试中,iPhone Air仅消耗15%电量,表现与iPhone 15相当。在45分钟高强度使用测试中表现稍逊,但在实际日常使用场景下,用户反馈iPhone Air能够稳定支撑全天使用,有线充电速度也比较理想。
这项由Reactive AI提出的稀疏查询注意力机制通过减少查询头数量而非键值头数量,直接降低了注意力层的计算复杂度,实现了2-3倍的训练和编码加速。该方法在长序列处理中表现出色,在20万词汇序列上达到3.5倍加速,且模型质量损失微乎其微,为计算密集型AI应用提供了新的优化路径。