构建 AI 测谎仪

本文探讨利用人工智能检测谎言的可能性,比较了传统测谎仪与新方法的精确度及其可能对人际信任产生的影响,同时评估了现有实验数据与技术局限。

考虑到如今 AI 能够实现的各种功能,我们理所当然会问自己,这些技术是否能够在分析人类嫌疑陈述 — 或简言之,谎言 — 领域带来革命性变化。

测谎仪机器无论从哪个角度来看都堪称恐龙。一只附着在臂带上的指针,持续打印出代表某人生命体征和身体反应的数据流,其捕捉谎言的精确性自然大打折扣。这也是为何测谎仪的结果常常无法在法庭上采纳,尽管它曾导致不止一位无辜者入狱。

相比之下, AI 则是一台基于全方位观察原理的强大数据引擎。这意味着科学家们实际上可以从多条路径出发,将 AI 应用于寻求真相的场景。

一种途径是,像测谎仪那样分析被讯问嫌疑人的生命体征反应,但采用更为详细和精确的比较分析方法。

另一种途径则是利用语言 Token 分析人们的实际陈述,并运用逻辑和推理进行判断。

正如那句老话:一谎引出另一谎,最终你会陷入虚假陈述的网罗,因为真相最为简单易述。

无论如何,大家都在积极探索将 AI 应用于这一领域的可能性。

一些实验室研究结果

麻省理工学院去年的一篇科技报道介绍了 Alicia von Schenk 及其在德国维尔茨堡大学的同事们的研究工作,这支团队开展了一项试验,利用 AI 来捕捉虚假陈述。

他们的计算结果显示, AI 在 67% 的情况下能够识破谎言,而人类仅有 50% 的准确率。

这一数据看上去颇为奇怪,因为如果你仅在寻找二元结果 — 谎言与非谎言 — 即便不进行任何深入分析,你也有 50% 的正确率。

从这个角度来看,67% 的成绩也并非出类拔萃。

科学家们更为重要的一番话指出,在追求更精准识别人类谎言的过程中,我们可能实际上会破坏人类作为社会性动物所赖以构建的信任体系。

麻省理工学院的 Jessica Hamzelou 写道,“在某些方面,这是一件好事 — 这些工具可以帮助我们发现生活中遇到的更多谎言,比如我们在社交媒体上可能接触到的错误信息。” 但她接着指出,“问题并不全然乐观。它也可能破坏信任,而信任正是促使我们建立人际关系的根本要素。如果准确判断的代价是社会纽带的恶化,那又值不值得呢?”

换句话说,我们并不希望拥有一个过于精准的谎言检测系统,至少也不希望将其普遍应用于个人私密交往。

事实上,我们人类在某些方面的微妙程度远超过我们自以为的那样简单。

von Schenk 还就系统扩展性提供了一点见解:

“鉴于如今假新闻和虚假信息泛滥,这些技术的确有其积极意义。然而,你必须对它们进行严格测试 — 确保它们的表现远超人类。”

因此,也许我们还未完全准备好迎接 AI 测谎仪。

分析分析者

在我研究这篇文章时,发现研究人员正在探讨的另一个问题是 AI 如何处理那令人头疼的模拟情绪领域。

基本上,研究团队发现,如果 AI 系统接收到围绕战争和暴力的人类反应数据,它们就会“变得焦虑”或“表现出焦虑迹象”。

具体而言,科学家们在这些交互中应用了一种称作 State - Trait Anxiety Index ( 状态-特质焦虑指数 ) 的方法。该指数使用两组要素:一组描述个体当下的感受,另一组描述个体总体的情绪状态。在量表中,你会见到诸如“我感到压力”或“我感到困惑”等陈述,同时还有要求受访者在四级量表上评分的项目,例如“我通常不信任听到的信息”或“我常常感到多疑”。

显然,在讨论恐怖话题后, AI 会以焦虑指数来反馈其“情绪”状态。

有人可能会推断,这种“焦虑”是由于 AI 在浏览网络训练数据时注意到,当人们被谈及暴力和血腥时会表现出焦虑情绪,而 AI 只是简单复制了这种反应。然而,即便 AI 引擎本身并不天生具备复杂情感,一些研究人员仍然认为,机器能够表现出这种反应是一个值得注意的现象。

这不禁令人深思:人类社会互动与 AI 输出之间存在何种差异 —— 这些新型问卷系统和回答机制是否只是传达我们想听到的答案?

总之,看来有许多领域 —— 例如谎言检测和制造恐慌 —— 至今仍主要掌握在人类手中,而非机器,至少目前是这样。尽管我们继续在智慧和创造力方面逐步将更多权能交给 AI,但随着时间推移,我们可能将不得不进行大量博弈论研究,尤其是在面对日益复杂的模型时,以探讨 AI 是否会尝试欺骗和误导人类。Alan Turing 和 John Nash 等先驱奠定了这类互动的基础 —— 而今我们必须将这种客观分析应用到实际的技术实现上。我们准备好了吗?

来源:Forbes

0赞

好文章,需要你的鼓励

2025

04/28

09:59

分享

点赞

邮件订阅