人工智能 (AI) 已经无缝集成到我们的应用程序、社交媒体平台、流媒体服务和虚拟助手中。然而,尽管它无处不在,美国人仍然对 AI 的影响持深度怀疑态度,质疑其在就业机会替代、道德治理和企业责任方面的作用。虽然人们对 AI 的认识有所提高,但公众对企业负责任地使用 AI 的信任度仍然很低。这个悖论在于 AI 在我们日常生活中的广泛应用与围绕它的不信任并存。这表明现在是个关键时刻,个人和企业需要通过教育、透明度和问责制来弥合这一鸿沟。
AI 采用与感知风险:一个矛盾
高达 99% 的美国人使用支持 AI 的产品,但 64% 的人并未意识到他们正在与 AI 互动。这种脱节凸显了人们对 AI 在日常生活中存在的基本认识不足。即使在那些承认其作用的人中,怀疑情绪仍然很高,77% 的人不相信企业会负责任地使用 AI,而在 AI 怀疑论者中,不信任度上升至 88%。
公众对 AI 的担忧与其实施方式密切相关,特别是在招聘、医疗建议和自动驾驶等关键领域。85% 的美国人对 AI 在招聘决策中的作用表示担忧,而 80% 的人担心 AI 生成的医疗建议。这些恐惧因企业优先考虑效率和盈利而非道德考虑的观念而加剧。
有趣的是,对 AI 的了解并不一定等同于乐观。即使在那些自称对 AI "极其了解" 的人中,31% 认为 AI 弊大于利,而只有 22% 认为 AI 的好处大于风险。这表明仅仅增加公众对 AI 的认识是不足以缓解担忧的;相反,企业必须采取积极措施来展示负责任的 AI 使用。
对更大透明度的呼吁
尽管普遍存在不信任,但人们认为企业重建公众信心的明确途径是通过透明度。当被问及哪些行动会减少他们对 AI 的担忧时,57% 的美国人认为企业透明度是最重要的因素,远超其他策略。AI 实施的透明度将使消费者能够就何时以及如何与 AI 驱动的工具互动做出明智的决定。这在 AI 直接影响生计的领域尤为重要,如招聘和数据隐私。虽然怀疑仍然占主导地位,但美国人在某些领域看到了 AI 的前景。医疗诊断和治疗领域尤其突出,乐观情绪超过悲观情绪。这表明当 AI 展示出切实好处时(如改善医疗保健效果),公众情绪会转向接受。
此外,美国人认识到应对 AI 风险是一个共同的责任。88% 的人认为政府应该在监管 AI 对虚假信息的影响方面发挥作用,而 82% 的人分别认为政府应对数据隐私和未经授权使用个人肖像的问题负责。然而,企业也不能免除责任——超过 60% 的美国人认为企业必须在降低这些风险方面承担同等责任。
前进的道路
AI 不再是一个未来的概念——它是一个塑造我们日常生活的嵌入式力量。然而,AI 的广泛使用与深层公众不信任之间的矛盾对企业和政策制定者都构成了重大挑战。要应对这种局面,组织必须致力于以下行动:
优先考虑透明度:企业必须明确传达 AI 在其服务和产品中的使用方式,确保消费者理解其角色和限制。我们要做的就是询问他们,如果不行就要求他们。
道德 AI 实施:企业应该整合道德保障措施,以解决有关偏见、虚假信息和就业替代的担忧。我们应该要求创造我们使用的产品的公司负责。
企业与政府之间的合作:由于 AI 治理仍然是一个重要关注点,企业必须与监管机构合作,制定平衡创新与道德责任的政策。我们应该鼓励地方和国家政府参与并解决眼前的问题。
通过积极应对公众关切,企业可以将 AI 从恐惧的来源转变为可信赖的进步工具。AI 采用的未来不仅取决于技术进步,还取决于确保信任、道德和问责制处于其发展的最前沿。
好文章,需要你的鼓励
Meta 正研发一项通过姓名识别人脸并追踪用户日常活动的“超级感知”技术,计划应用于新款智能眼镜和 AI 耳机,同时重新评估隐私策略,助推 AI 技术在穿戴产品中的应用。
Google 在 Gemini API 中推出自动缓存功能,通过复用重复数据为开发者节省最多 75% 的调用成本,有望缓解高额 API 费用问题。
Korl 利用 OpenAI、Gemini 及 Anthropic 等模型,从 Salesforce、Jira、Google Docs 等多个平台整合数据,自动生成定制化客户沟通材料,如幻灯片、演讲稿及季度业务回顾,同时保证数据安全性,并提升运营效率。
文章探讨了代理型 AI 的崛起,重点介绍微软 Azure AI Foundry 与 NVIDIA 技术如何通过强大语言模型和智能代理,实现企业级应用创新,提升运营效率与服务质量。