人工智能 (AI) 已经无缝集成到我们的应用程序、社交媒体平台、流媒体服务和虚拟助手中。然而,尽管它无处不在,美国人仍然对 AI 的影响持深度怀疑态度,质疑其在就业机会替代、道德治理和企业责任方面的作用。虽然人们对 AI 的认识有所提高,但公众对企业负责任地使用 AI 的信任度仍然很低。这个悖论在于 AI 在我们日常生活中的广泛应用与围绕它的不信任并存。这表明现在是个关键时刻,个人和企业需要通过教育、透明度和问责制来弥合这一鸿沟。
AI 采用与感知风险:一个矛盾
高达 99% 的美国人使用支持 AI 的产品,但 64% 的人并未意识到他们正在与 AI 互动。这种脱节凸显了人们对 AI 在日常生活中存在的基本认识不足。即使在那些承认其作用的人中,怀疑情绪仍然很高,77% 的人不相信企业会负责任地使用 AI,而在 AI 怀疑论者中,不信任度上升至 88%。
公众对 AI 的担忧与其实施方式密切相关,特别是在招聘、医疗建议和自动驾驶等关键领域。85% 的美国人对 AI 在招聘决策中的作用表示担忧,而 80% 的人担心 AI 生成的医疗建议。这些恐惧因企业优先考虑效率和盈利而非道德考虑的观念而加剧。
有趣的是,对 AI 的了解并不一定等同于乐观。即使在那些自称对 AI "极其了解" 的人中,31% 认为 AI 弊大于利,而只有 22% 认为 AI 的好处大于风险。这表明仅仅增加公众对 AI 的认识是不足以缓解担忧的;相反,企业必须采取积极措施来展示负责任的 AI 使用。
对更大透明度的呼吁
尽管普遍存在不信任,但人们认为企业重建公众信心的明确途径是通过透明度。当被问及哪些行动会减少他们对 AI 的担忧时,57% 的美国人认为企业透明度是最重要的因素,远超其他策略。AI 实施的透明度将使消费者能够就何时以及如何与 AI 驱动的工具互动做出明智的决定。这在 AI 直接影响生计的领域尤为重要,如招聘和数据隐私。虽然怀疑仍然占主导地位,但美国人在某些领域看到了 AI 的前景。医疗诊断和治疗领域尤其突出,乐观情绪超过悲观情绪。这表明当 AI 展示出切实好处时(如改善医疗保健效果),公众情绪会转向接受。
此外,美国人认识到应对 AI 风险是一个共同的责任。88% 的人认为政府应该在监管 AI 对虚假信息的影响方面发挥作用,而 82% 的人分别认为政府应对数据隐私和未经授权使用个人肖像的问题负责。然而,企业也不能免除责任——超过 60% 的美国人认为企业必须在降低这些风险方面承担同等责任。
前进的道路
AI 不再是一个未来的概念——它是一个塑造我们日常生活的嵌入式力量。然而,AI 的广泛使用与深层公众不信任之间的矛盾对企业和政策制定者都构成了重大挑战。要应对这种局面,组织必须致力于以下行动:
优先考虑透明度:企业必须明确传达 AI 在其服务和产品中的使用方式,确保消费者理解其角色和限制。我们要做的就是询问他们,如果不行就要求他们。
道德 AI 实施:企业应该整合道德保障措施,以解决有关偏见、虚假信息和就业替代的担忧。我们应该要求创造我们使用的产品的公司负责。
企业与政府之间的合作:由于 AI 治理仍然是一个重要关注点,企业必须与监管机构合作,制定平衡创新与道德责任的政策。我们应该鼓励地方和国家政府参与并解决眼前的问题。
通过积极应对公众关切,企业可以将 AI 从恐惧的来源转变为可信赖的进步工具。AI 采用的未来不仅取决于技术进步,还取决于确保信任、道德和问责制处于其发展的最前沿。
好文章,需要你的鼓励
OpenAI和微软宣布签署一项非约束性谅解备忘录,修订双方合作关系。随着两家公司在AI市场竞争客户并寻求新的基础设施合作伙伴,其关系日趋复杂。该协议涉及OpenAI从非营利组织向营利实体的重组计划,需要微软这一最大投资者的批准。双方表示将积极制定最终合同条款,共同致力于为所有人提供最佳AI工具。
中山大学团队针对OpenAI O1等长思考推理模型存在的"长度不和谐"问题,提出了O1-Pruner优化方法。该方法通过长度-和谐奖励机制和强化学习训练,成功将模型推理长度缩短30-40%,同时保持甚至提升准确率,显著降低了推理时间和计算成本,为高效AI推理提供了新的解决方案。
中国科技企业发布了名为R1的人形机器人,直接对标特斯拉的Optimus机器人产品。这款新型机器人代表了中国在人工智能和机器人技术领域的最新突破,展现出与国际巨头竞争的实力。R1机器人的推出标志着全球人形机器人市场竞争进一步加剧。
上海AI实验室研究团队深入调查了12种先进视觉语言模型在自动驾驶场景中的真实表现,发现这些AI系统经常在缺乏真实视觉理解的情况下生成看似合理的驾驶解释。通过DriveBench测试平台的全面评估,研究揭示了现有评估方法的重大缺陷,并为开发更可靠的AI驾驶系统提供了重要指导。