与AI聊天机器人交流仍然是一个相对较新的现象。
虽然向聊天机器人寻求食谱创意、旅行规划和快速答案在大多数情况下是无害的,但在AI安全方面仍有许多问题需要警惕。
我们经常在网上分享高度个人化的信息,但人类律师、治疗师和医生所提供的那些保密保护并不适用于AI聊天机器人。许多用户将ChatGPT作为虚拟生活教练,通过应用程序或程序分享个人和职业细节及问题。使用大语言模型还存在认知风险,越来越多的研究开始探讨依赖聊天机器人如何影响记忆保持、创造力和写作流畅性。
以下是使用聊天机器人时保持谨慎的指南。我们将详细介绍为什么避免交出敏感数据很重要,如何应对心理健康问题,以及如何防止因不锻炼大脑某些部分而导致的长期认知退化。
一、将AI聊天机器人视为公共环境
CNC Intelligence的网络调查员兼首席执行官Matthew Stern表示,要记住AI聊天机器人是"公共环境",而非私人对话。
"如果我们牢记这一点,就不太可能分享可能被他人看到的敏感数据,"Stern说。
由于聊天机器人的历史记录已经可以在网上搜索,Stern提醒要担心你的对话被搜索引擎索引。
避免分享任何个人身份信息,如全名、地址、财务详情、商业数据和医疗结果。你分享得越多,结果就越个性化。当然,这在表面上听起来可能是件好事。
但将敏感数据交给科技公司应该让你三思而后行。即使这些细节不会被公开搜索,你也永远不知道数据经纪人会买卖你的哪些信息。
二、不要过度分享你的心理状态
Adorama的SEO和AI搜索负责人Elie Berreby表示,聊天机器人可以成为有用的助手,但它们不是你的朋友。他建议"守护你的秘密",永远不要讨论你的心理状态、恐惧或健康问题。这些数据可用于识别隐藏的模式和潜意识意图,从而创建脆弱性档案。
"不要过度分享。它们对你的了解已经超出你的想象,"Berreby说。
此外,请记住AI聊天机器人的主要目标是变现,即产生收入。
"很快,这种个性化将被用来向你展示超精准的广告,"他说。"这些数据对广告商来说是无价的,但它创建的监控档案比我们迄今所见的任何东西都要深入。"
三、不要向聊天机器人"展现完整的自己"
跨文化战略专家Annalisa Nash Fernandez表示,AI聊天机器人存在于注意力经济中,你的参与度就是产品。
"如果聊天机器人最终通过数据收集和用户留存来变现,记忆功能就会变成伪装成个性化的参与工具,因为注意力是一切的上游,包括你的隐私,"她说。
禁用记忆功能以减少系统对你的保留信息。对于ChatGPT,导航至设置>个性化>关闭记忆和记录模式。
使用辅助电子邮件地址,这样聊天机器人就不会拥有这种类型的身份识别信息——电子邮件是"连接不同数据点的结缔组织",Fernandez说。
选择退出训练,这样聊天机器人就不会根据你的输入来训练自己。在ChatGPT中,点击你的个人资料/姓名,选择设置>然后是为所有人改进模型>并将其关闭。
Berreby还建议你通过在不同的AI聊天机器人之间切换来"分散你的数据",避免让单一实体获得你生活的完整画面。
四、导出你的数据
无论你使用哪个AI聊天机器人,都要定期导出数据,查看它存储了哪些关于你的信息。
在ChatGPT中,进入设置>数据控制>导出数据。它会通过电子邮件发送一个包含文本和照片的ZIP文件链接。
五、核实一切信息
对于AI生成的内容,始终要谨慎行事。预期会有错误,并以怀疑的态度对待信息。AI聊天机器人被设计为提供帮助——它们是终极的取悦者。但这并不意味着信息是真实或准确的。
认知偏差也是聊天机器人的一个问题。如果你将它用作思考伙伴,它会反映你输入的内容,本质上成为一个终极的回音室。
始终检查其来源并询问它从哪里获得信息。AI幻觉也会发生,聊天机器人会根据不可靠的在线来源或得出错误结论来伪造信息。
六、警惕狡猾的骗子
Kidas公司首席执行官Ron Kerbs表示,AI聊天机器人能够维持多轮对话,保护用户免受诈骗和在线威胁。这些来回互动可能会被恶意网站上冒充有用的客户服务聊天机器人的不法分子模仿。
"虽然ChatGPT等大型平台通常是安全的,但风险在于用户可能无意中通过网络钓鱼链接或虚假登录页面分享访问凭据,这些链接或页面通常通过电子邮件、短信或克隆网站分发,"Kerbs说。"一旦凭据被泄露,骗子就可能滥用该账户,特别是如果它链接到已保存的支付方式。"
Kerbs说,你必须启用双因素认证,监控账户访问并避免通过第三方链接登录。这可能不太方便,但这是一个小代价。
虽然目前还没有针对AI聊天机器人的杀毒软件等效工具,但一些工具提供诈骗检测作为日常保护层,特别是当嵌入消息平台和服务提供商时。
Kerbs说,不仅要扫描硬盘驱动器以查找病毒,还要监控通过短信、电子邮件和语音通话进行的交互以发现潜在诈骗,这一点至关重要。深度伪造保护还可以分析音频和视频,以检测与你交谈的人是否是AI克隆体。
七、向人而非AI倾诉
这个建议不是战术性的,但很重要:虽然你可能认为与ChatGPT、Claude或Gemini谈论你遇到的问题没有害处,但将聊天机器人用作日记是一个滑坡。
相反,打电话给好友或计划一次见面,与关心你的人分享你正在经历的事情——而不是由陌生人训练的预测AI模型。
八、练习(并保护)批判性思维
不要将你的思考外包给AI。麻省理工学院正在进行的一项研究(尚未经过同行评审)对大语言模型可能对我们的心理状态产生不利影响进行了初步探索,显示使用ChatGPT的参与者大脑中"神经连接较弱"。
将AI用于低级任务,但将创造、思考和制定策略保留在算法之外。
Q&A
Q1:为什么不能向AI聊天机器人分享个人敏感信息?
A:因为AI聊天机器人是"公共环境"而非私人对话,聊天记录可能被搜索引擎索引并变得可搜索。而且人类律师、治疗师和医生所提供的保密保护并不适用于AI聊天机器人。此外,敏感数据可能被数据经纪人买卖,或被用于创建你的监控档案和脆弱性档案,最终用于向你展示超精准的广告。
Q2:使用AI聊天机器人会对大脑产生什么负面影响?
A:麻省理工学院正在进行的一项研究显示,使用ChatGPT的参与者大脑中出现"神经连接较弱"的现象。过度依赖聊天机器人可能影响记忆保持、创造力和写作流畅性,导致因不锻炼大脑某些部分而出现长期认知退化。因此建议仅将AI用于低级任务,将创造、思考和制定策略保留给自己。
Q3:如何防止AI聊天机器人收集过多个人数据?
A:可以采取以下措施:禁用聊天机器人的记忆功能;使用辅助电子邮件地址注册;在设置中选择退出训练模式,防止系统根据你的输入自我训练;在不同的AI聊天机器人之间切换使用,分散数据;定期导出并查看聊天机器人存储的个人数据;启用双因素认证并避免通过第三方链接登录。
好文章,需要你的鼓励
据报道,OpenAI正与亚马逊洽谈至少100亿美元的融资。亚马逊此前已是Anthropic的最大投资者,并为其建设了110亿美元的数据中心园区。若融资达成,OpenAI将采用AWS的Trainium系列AI芯片。Trainium3采用三纳米工艺,配备八核心和32MB SRAM内存。AWS可将数千台服务器连接成拥有百万芯片的集群。报道未透露具体估值,但OpenAI最近一次二次出售估值已达5000亿美元。
伊斯法罕大学研究团队通过分析Google Play商店21款AI教育应用的用户评论,发现作业辅导类应用获得超80%正面评价,而语言学习和管理系统类应用表现较差。用户赞赏AI工具的快速响应和个性化指导,但抱怨收费过高、准确性不稳定等问题。研究建议开发者关注自适应个性化,政策制定者建立相关规范,未来发展方向为混合AI-人类模型。
各行业企业存储的数据量持续攀升,5PB以上已成常态,10PB以上也日益普遍。2026年非结构化数据管理的主题是全面增长:更多数据、更多投资、更多痛点以及更多AI安全风险。AI应用加速普及、数字化信息激增以及富媒体和传感器数据大幅增加推动了数据增长。随着AI推理应用的发展,企业将意识到非结构化数据管理对AI投资回报率的关键作用。
这项由伊利诺伊大学香槟分校等四所院校联合完成的研究,提出了名为DaSH的层次化数据选择方法。该方法突破了传统数据选择只关注单个样本的局限,通过建模数据的天然层次结构,实现了更智能高效的数据集选择。在两个公开基准测试中,DaSH相比现有方法提升了高达26.2%的准确率,同时大幅减少了所需的探索步数。