MWC 2019上展示的LIKU婴儿人形机器人(摄影师:Stefan Wermuth / Bloomberg;照片来源:©2019 Bloomberg Finance LP)
2019年2月11日,美国总统特朗普签署了关于维护美国人工智能领导力的行政命令。当月,Protivity一项关于人工智能和机器学习的调查显示,只有16%的受访企业领导者称,他们从先进的人工智能中获得了巨大的价值。调查还发现,各种行业中各种规模的企业都在人工智能方面投入巨资,2018年平均支出达到了3600万美元。
在受访企业中,有10%的企业表示计划在未来两年内增加预算。调查还发现,亚太地区的企业在采用先进人工智能的速度方面要快于世界其他地区。2018年,亚太地区的企业中有22%处于机器学习的高级阶段,而北美只有11%,欧洲有7%。
2019年3月4日,联合国教科文组织召开了一次关于制定人工智能核心原则的大会,重点讨论了更人性化的人工智能方法,其目标是促进公共部门和私营企业、技术界、媒体界和学术界、民间社会、国际和区域组织之间的对话,讨论我们应该在多大程度上允许机器替我们做出决策。作为一个社会群体,我们人类将价值和优先级写入机器的算法之中。
联合国教科文组织总干事Audrey Azoulay在声明中表示,人工智能是人类的新前沿。
Azoulay表示:“人工智能的指导原则并不是要成为自主的或者取代人类的智慧,但我们必须确保人工智能是通过人道主义的方式发展进化的。”
万事达卡(Mastercard)公司网络与智能解决方案总裁Ajay Bhalla表示,如今人工智能已经影响着大多数行业。
“未来几年中,人工智能将影响到每个经济领域。人工智能将大规模提高数据交易、互动和决策的价值和速度,”Bhalla说。
“因此人工智能对于未来的商业至关重要——通过人工智能构建系统,这对于保持竞争力至关重要。”
迪拜数据公司首席执行官、智慧迪拜助理主任Younus Al Nasser对此表示赞同。
他说:“人工智能已经自成一个领域,成为我们生活中越来越自动化的一个组成部分,未来人工智能领域取得的突破和人工智能服务只会越来越多,这就需要我们设定原则来规范和指导这个领域。”
“也就是说,人工智能领域还不够成熟,尚未起草法律来管理它,因此我们开发了一个Ethical AI Toolkit,为人工智能的道德使用制定明确的指导方针,防止碎片化的、不连贯的道德方法。在道德方面,一切都要制定出规则。我们希望这个工具包变成一个通用的框架,确定人工智能设计和使用的道德要求,提供合理的解决方案帮助利益相关者遵守道德原则,最终作为政府制定务实的人工智能法律法规的一个蓝图。”
在可信性方面,万事达卡公司的Bhalla认为,如今技术领域有很多关于可信性的讨论,无论是对消费者数据的使用、隐私还是共享经济中新平台和技术的发展。
Bhalla说:“因为资金是人们很看重的,所以支付和金融服务行业总是在构建更为安全的系统方面走在前沿。人们越来越认识到,道德规范包括的不止是监管和合规,重点也从‘我们是合规的’,转变为‘我们做的是正确的’。”
“道德方面的考量体现了竞争差异化,这是我们需要遵循的原则。我们在设计中考虑隐私,在设计中考虑安全性——这是基于可信性的价值主张。如果我们考虑采用人工智能,我们就需要深入考虑如何采用人工智能技术,如何创建标准来定义在哪些方面使用人工智能、在什么时候使用人工智能、以及人工智能可以读取哪些内容。”
LatentView Analytics首席执行官Rajan Sethuraman认为,人工智能的道德规范是一个广泛的主题,因为这通常涉及把文化规范和指南运用于几乎无穷无尽的理论应用中。
Sethuraman说:“当使用人工智能实现那些可重复性工作的自动化时,道德方面的考量可能就不会那么深入。但是,我们对机器训练得越多、越是希望机器最终能够模仿我们并把判断、同情心、公平等人类基本思想情感融入到人工智能技术中,我们就会越来越多地要面对同样存在于人类交互过程中的道德问题。”
感知自动化的“权利”是我们在科幻电影中反复见到的一个主题——虽然我们还没有达到HAL 9000的水平——但是当我们开发出越来越先进、越来越不可预测的人工智能时,我们就必须要深度思考道德规范问题,Sethuraman补充说。
Clairvoyant首席技术官Shekhar Vemuri认为,人工智能的道德问题就像是硬币的正反两面。
Vemuri说:“不管是大型技术企业还是小型初创公司,任何开发人工智能技术的人都需要问问自己,是否有权利使用他们手头上的任何数据来支持人工智能。如果没有,那么接下来所有事情都有可能是道德违规的。”
“另一方面是透明度。很多公司只关注他们的人工智能有多么强大、多么可扩展。这很重要,但人工智能有点像政府——或者人们把权力移交给的一方——必须具备透明度可以检查它的权力和能力。机器做得是否正确?更重要的是——如果不正确的话(例如,银行贷款或者招聘流程中存在偏见),那么流程是否开放,可供检查?是否可以通过审查算法发现缺陷?或者它就是个黑盒子?
Vemuri认为,不解决以及解决这些隐私性和透明度的问题,都将面临着激烈反应,可能就意味着从监管上叫停人工智能的采用。
“作为人工智能从业者,我们的社会和道德责任是确保我们人类的偏见不会在我们构建的解决方案中得到放大——如果确实存在偏见,并且形成一定规模——那么就要有一个透明的过程来根除并解决这个问题,”Vemuri补充说。
但Bhalla认为,AI可以在打击影响消费者的欺诈方面发挥重要作用。
“在过去十年中,万事达卡公司一直投入资金用于人工智能技术,而且人工智能在打击欺诈、特别是反洗钱方面确实是很有价值的。我们的人工智能防欺诈和决策平台每年要处理70亿笔交易,这使得去年我们防止了涉及500亿美元的欺诈行为。”
万事达卡公司在2017年收购了人工智能专业公司Brighterion。Bhalla表示,这让万事达卡公司能够将检测的极限推高到预测这个层面。
“我们的业务中没有哪个部分是没有采用人工智能的,从忠诚和奖励计划,到防欺诈和用户体验,再到新渠道。未来,将人工智能与生物识别技术相结合,将是把物理世界中的智能识别转移到数字化领域中的一个重要方式。在线检测人员及其设备,是目前我们正在解决的一项重大挑战。”
说回人工智能的道德规范问题。Sethuraman表示:“人工智能的道德规范,必须越来越多地考虑潜在结果,让人类尽可能地参与到输入和设计过程中。这是近似于人的智能——或者通过机器完善人类,通过人类完善机器——事实上,这是未来大多数人工智能发展进化的方式。
好文章,需要你的鼓励
继苹果和其他厂商之后,Google正在加大力度推广其在智能手机上的人工智能功能。该公司试图通过展示AI在移动设备上的实用性和创新性来吸引消费者关注,希望说服用户相信手机AI功能的价值。Google面临的挑战是如何让消费者真正体验到AI带来的便利,并将这些技术优势转化为市场竞争力。
麻省理工学院研究团队发现大语言模型"幻觉"现象的新根源:注意力机制存在固有缺陷。研究通过理论分析和实验证明,即使在理想条件下,注意力机制在处理多步推理任务时也会出现系统性错误。这一发现挑战了仅通过扩大模型规模就能解决所有问题的观点,为未来AI架构发展指明新方向,提醒用户在复杂推理任务中谨慎使用AI工具。
Meta为Facebook和Instagram推出全新AI翻译工具,可实时将用户生成内容转换为其他语言。该功能在2024年Meta Connect大会上宣布,旨在打破语言壁垒,让视频和短视频内容触达更广泛的国际受众。目前支持英语和西班牙语互译,后续将增加更多语言。创作者还可使用AI唇形同步功能,创造无缝的口型匹配效果,并可通过创作者控制面板随时关闭该功能。
中科院自动化所等机构联合发布MM-RLHF研究,构建了史上最大的多模态AI对齐数据集,包含12万个精细人工标注样本。研究提出批评式奖励模型和动态奖励缩放算法,显著提升多模态AI的安全性和对话能力,为构建真正符合人类价值观的AI系统提供了突破性解决方案。