安全专家给出的8条AI聊天机器人使用安全建议

AI聊天机器人虽然便捷,但存在诸多安全隐患。用户与聊天机器人分享的个人信息不受隐私保护,对话记录可能被搜索引擎索引。专家建议:将聊天机器人视为公共环境,避免透露敏感个人信息;不要过度分享心理状态和健康问题;关闭记忆功能并定期导出数据;对AI生成内容保持怀疑并核实信息;警惕冒充客服的钓鱼诈骗;启用双因素认证;重要问题应向真人倾诉而非AI;避免过度依赖AI以防思维能力退化。

与AI聊天机器人交流仍然是一个相对较新的现象。

虽然向聊天机器人寻求食谱创意、旅行规划和快速答案在大多数情况下是无害的,但在AI安全方面仍有许多问题需要警惕。

我们经常在网上分享高度个人化的信息,但人类律师、治疗师和医生所提供的那些保密保护并不适用于AI聊天机器人。许多用户将ChatGPT作为虚拟生活教练,通过应用程序或程序分享个人和职业细节及问题。使用大语言模型还存在认知风险,越来越多的研究开始探讨依赖聊天机器人如何影响记忆保持、创造力和写作流畅性。

以下是使用聊天机器人时保持谨慎的指南。我们将详细介绍为什么避免交出敏感数据很重要,如何应对心理健康问题,以及如何防止因不锻炼大脑某些部分而导致的长期认知退化。

一、将AI聊天机器人视为公共环境

CNC Intelligence的网络调查员兼首席执行官Matthew Stern表示,要记住AI聊天机器人是"公共环境",而非私人对话。

"如果我们牢记这一点,就不太可能分享可能被他人看到的敏感数据,"Stern说。

由于聊天机器人的历史记录已经可以在网上搜索,Stern提醒要担心你的对话被搜索引擎索引。

避免分享任何个人身份信息,如全名、地址、财务详情、商业数据和医疗结果。你分享得越多,结果就越个性化。当然,这在表面上听起来可能是件好事。

但将敏感数据交给科技公司应该让你三思而后行。即使这些细节不会被公开搜索,你也永远不知道数据经纪人会买卖你的哪些信息。

二、不要过度分享你的心理状态

Adorama的SEO和AI搜索负责人Elie Berreby表示,聊天机器人可以成为有用的助手,但它们不是你的朋友。他建议"守护你的秘密",永远不要讨论你的心理状态、恐惧或健康问题。这些数据可用于识别隐藏的模式和潜意识意图,从而创建脆弱性档案。

"不要过度分享。它们对你的了解已经超出你的想象,"Berreby说。

此外,请记住AI聊天机器人的主要目标是变现,即产生收入。

"很快,这种个性化将被用来向你展示超精准的广告,"他说。"这些数据对广告商来说是无价的,但它创建的监控档案比我们迄今所见的任何东西都要深入。"

三、不要向聊天机器人"展现完整的自己"

跨文化战略专家Annalisa Nash Fernandez表示,AI聊天机器人存在于注意力经济中,你的参与度就是产品。

"如果聊天机器人最终通过数据收集和用户留存来变现,记忆功能就会变成伪装成个性化的参与工具,因为注意力是一切的上游,包括你的隐私,"她说。

禁用记忆功能以减少系统对你的保留信息。对于ChatGPT,导航至设置>个性化>关闭记忆和记录模式。

使用辅助电子邮件地址,这样聊天机器人就不会拥有这种类型的身份识别信息——电子邮件是"连接不同数据点的结缔组织",Fernandez说。

选择退出训练,这样聊天机器人就不会根据你的输入来训练自己。在ChatGPT中,点击你的个人资料/姓名,选择设置>然后是为所有人改进模型>并将其关闭。

Berreby还建议你通过在不同的AI聊天机器人之间切换来"分散你的数据",避免让单一实体获得你生活的完整画面。

四、导出你的数据

无论你使用哪个AI聊天机器人,都要定期导出数据,查看它存储了哪些关于你的信息。

在ChatGPT中,进入设置>数据控制>导出数据。它会通过电子邮件发送一个包含文本和照片的ZIP文件链接。

五、核实一切信息

对于AI生成的内容,始终要谨慎行事。预期会有错误,并以怀疑的态度对待信息。AI聊天机器人被设计为提供帮助——它们是终极的取悦者。但这并不意味着信息是真实或准确的。

认知偏差也是聊天机器人的一个问题。如果你将它用作思考伙伴,它会反映你输入的内容,本质上成为一个终极的回音室。

始终检查其来源并询问它从哪里获得信息。AI幻觉也会发生,聊天机器人会根据不可靠的在线来源或得出错误结论来伪造信息。

六、警惕狡猾的骗子

Kidas公司首席执行官Ron Kerbs表示,AI聊天机器人能够维持多轮对话,保护用户免受诈骗和在线威胁。这些来回互动可能会被恶意网站上冒充有用的客户服务聊天机器人的不法分子模仿。

"虽然ChatGPT等大型平台通常是安全的,但风险在于用户可能无意中通过网络钓鱼链接或虚假登录页面分享访问凭据,这些链接或页面通常通过电子邮件、短信或克隆网站分发,"Kerbs说。"一旦凭据被泄露,骗子就可能滥用该账户,特别是如果它链接到已保存的支付方式。"

Kerbs说,你必须启用双因素认证,监控账户访问并避免通过第三方链接登录。这可能不太方便,但这是一个小代价。

虽然目前还没有针对AI聊天机器人的杀毒软件等效工具,但一些工具提供诈骗检测作为日常保护层,特别是当嵌入消息平台和服务提供商时。

Kerbs说,不仅要扫描硬盘驱动器以查找病毒,还要监控通过短信、电子邮件和语音通话进行的交互以发现潜在诈骗,这一点至关重要。深度伪造保护还可以分析音频和视频,以检测与你交谈的人是否是AI克隆体。

七、向人而非AI倾诉

这个建议不是战术性的,但很重要:虽然你可能认为与ChatGPT、Claude或Gemini谈论你遇到的问题没有害处,但将聊天机器人用作日记是一个滑坡。

相反,打电话给好友或计划一次见面,与关心你的人分享你正在经历的事情——而不是由陌生人训练的预测AI模型。

八、练习(并保护)批判性思维

不要将你的思考外包给AI。麻省理工学院正在进行的一项研究(尚未经过同行评审)对大语言模型可能对我们的心理状态产生不利影响进行了初步探索,显示使用ChatGPT的参与者大脑中"神经连接较弱"。

将AI用于低级任务,但将创造、思考和制定策略保留在算法之外。

Q&A

Q1:为什么不能向AI聊天机器人分享个人敏感信息?

A:因为AI聊天机器人是"公共环境"而非私人对话,聊天记录可能被搜索引擎索引并变得可搜索。而且人类律师、治疗师和医生所提供的保密保护并不适用于AI聊天机器人。此外,敏感数据可能被数据经纪人买卖,或被用于创建你的监控档案和脆弱性档案,最终用于向你展示超精准的广告。

Q2:使用AI聊天机器人会对大脑产生什么负面影响?

A:麻省理工学院正在进行的一项研究显示,使用ChatGPT的参与者大脑中出现"神经连接较弱"的现象。过度依赖聊天机器人可能影响记忆保持、创造力和写作流畅性,导致因不锻炼大脑某些部分而出现长期认知退化。因此建议仅将AI用于低级任务,将创造、思考和制定策略保留给自己。

Q3:如何防止AI聊天机器人收集过多个人数据?

A:可以采取以下措施:禁用聊天机器人的记忆功能;使用辅助电子邮件地址注册;在设置中选择退出训练模式,防止系统根据你的输入自我训练;在不同的AI聊天机器人之间切换使用,分散数据;定期导出并查看聊天机器人存储的个人数据;启用双因素认证并避免通过第三方链接登录。

来源:cnet

0赞

好文章,需要你的鼓励

2025

12/18

14:05

分享

点赞

邮件订阅