人工智能 (AI) 已经无缝集成到我们的应用程序、社交媒体平台、流媒体服务和虚拟助手中。然而,尽管它无处不在,美国人仍然对 AI 的影响持深度怀疑态度,质疑其在就业机会替代、道德治理和企业责任方面的作用。虽然人们对 AI 的认识有所提高,但公众对企业负责任地使用 AI 的信任度仍然很低。这个悖论在于 AI 在我们日常生活中的广泛应用与围绕它的不信任并存。这表明现在是个关键时刻,个人和企业需要通过教育、透明度和问责制来弥合这一鸿沟。
AI 采用与感知风险:一个矛盾
高达 99% 的美国人使用支持 AI 的产品,但 64% 的人并未意识到他们正在与 AI 互动。这种脱节凸显了人们对 AI 在日常生活中存在的基本认识不足。即使在那些承认其作用的人中,怀疑情绪仍然很高,77% 的人不相信企业会负责任地使用 AI,而在 AI 怀疑论者中,不信任度上升至 88%。
公众对 AI 的担忧与其实施方式密切相关,特别是在招聘、医疗建议和自动驾驶等关键领域。85% 的美国人对 AI 在招聘决策中的作用表示担忧,而 80% 的人担心 AI 生成的医疗建议。这些恐惧因企业优先考虑效率和盈利而非道德考虑的观念而加剧。
有趣的是,对 AI 的了解并不一定等同于乐观。即使在那些自称对 AI "极其了解" 的人中,31% 认为 AI 弊大于利,而只有 22% 认为 AI 的好处大于风险。这表明仅仅增加公众对 AI 的认识是不足以缓解担忧的;相反,企业必须采取积极措施来展示负责任的 AI 使用。
对更大透明度的呼吁
尽管普遍存在不信任,但人们认为企业重建公众信心的明确途径是通过透明度。当被问及哪些行动会减少他们对 AI 的担忧时,57% 的美国人认为企业透明度是最重要的因素,远超其他策略。AI 实施的透明度将使消费者能够就何时以及如何与 AI 驱动的工具互动做出明智的决定。这在 AI 直接影响生计的领域尤为重要,如招聘和数据隐私。虽然怀疑仍然占主导地位,但美国人在某些领域看到了 AI 的前景。医疗诊断和治疗领域尤其突出,乐观情绪超过悲观情绪。这表明当 AI 展示出切实好处时(如改善医疗保健效果),公众情绪会转向接受。
此外,美国人认识到应对 AI 风险是一个共同的责任。88% 的人认为政府应该在监管 AI 对虚假信息的影响方面发挥作用,而 82% 的人分别认为政府应对数据隐私和未经授权使用个人肖像的问题负责。然而,企业也不能免除责任——超过 60% 的美国人认为企业必须在降低这些风险方面承担同等责任。
前进的道路
AI 不再是一个未来的概念——它是一个塑造我们日常生活的嵌入式力量。然而,AI 的广泛使用与深层公众不信任之间的矛盾对企业和政策制定者都构成了重大挑战。要应对这种局面,组织必须致力于以下行动:
优先考虑透明度:企业必须明确传达 AI 在其服务和产品中的使用方式,确保消费者理解其角色和限制。我们要做的就是询问他们,如果不行就要求他们。
道德 AI 实施:企业应该整合道德保障措施,以解决有关偏见、虚假信息和就业替代的担忧。我们应该要求创造我们使用的产品的公司负责。
企业与政府之间的合作:由于 AI 治理仍然是一个重要关注点,企业必须与监管机构合作,制定平衡创新与道德责任的政策。我们应该鼓励地方和国家政府参与并解决眼前的问题。
通过积极应对公众关切,企业可以将 AI 从恐惧的来源转变为可信赖的进步工具。AI 采用的未来不仅取决于技术进步,还取决于确保信任、道德和问责制处于其发展的最前沿。
好文章,需要你的鼓励
杜克大学研究团队建立了首个专门针对Web智能体攻击检测的综合评估标准WAInjectBench。研究发现,现有攻击手段极其多样化,从图片像素篡改到隐藏弹窗无所不包。虽然检测方法对明显恶意指令有中等效果,但对隐蔽攻击几乎无能为力。研究构建了包含近千个恶意样本的测试数据库,评估了十二种检测方法,揭示了文本和图像检测的互补性。这项研究为Web智能体安全防护指明了方向,提醒我们在享受AI便利时必须保持安全意识。
生成式AI的兴起让谷歌和Meta两大科技巨头受益匪浅。谷歌母公司Alphabet第三季度广告收入同比增长12%达742亿美元,云服务收入增长33%至151.5亿美元,季度总收入首次突破千亿美元大关。Meta第三季度收入512.5亿美元,同比增长26%。两家公司都将大幅增加AI基础设施投资,Meta预计2025年资本支出提升至700亿美元,Alphabet预计达910-930亿美元。
加州大学圣地亚哥分校研究团队系统研究了AI智能体多回合强化学习训练方法,通过环境、策略、奖励三大支柱的协同设计,提出了完整的训练方案。研究在文本游戏、虚拟家庭和软件工程等多个场景验证了方法有效性,发现简单环境训练能迁移到复杂任务,监督学习初始化能显著减少样本需求,密集奖励能改善学习效果。这为训练能处理复杂多步骤任务的AI智能体提供了实用指南。