9月5日,2024 Inclusion·外滩大会在上海黄浦世博园区正式开幕。
在此之前,外滩大会已经对外发布了十大科技人文热点问题,这些问题关乎人工智能时代下的人才培养、情感陪伴、人机共生,乃至AI文明的建立。
就这些社会热点问题,本届外滩大会邀请了10位中外院士,以及500多位全球知名科学家、学者一同探讨这些问题。
在外滩大会主论坛上,《连线》杂志创始主编凯文·凯利,“机器学习之父”、美国三院院士Michael I. Jordan,中国工程院院士、之江实验室主任、阿里云创始人王坚,香港科技大学校董会主席、美国国家工程院外籍院士沈向洋分别发表了主题演讲。
《连线》杂志创始主编凯文·凯利称,当人工智能深刻影响经济和文化,必将涌现三大趋势:全球主义、创新加速和AI驱动生成。
就全球主义而言,凯文·凯利指出,因为我们正在共同构建一个基于技术的“超级有机体”,我们正将全球的手机、笔记本电脑、服务器连接成一个巨大的计算系统,每一台设备就像这个庞大计算机的一个神经元,这台超级计算机在一个前所未有的规模上高速运行。
就创新加速而言,凯文·凯利指出,AI技术加速了创新的步伐,这种加速体现在多个方面,包括新发明和新思想的传播速度越来越快、通过AR/VR技术来提高学习效率,甚至AI也通过机器及其他传感器来感知世界等,此外,ChatGPT等人工智能工具,也极大地加快了人们学习的速度。
就AI驱动生成而言,凯文·凯利指出,人工智能不仅将帮助我们摆脱机械、枯燥的工作,完成我们无法独立完成的任务,甚至可以生成超乎人类想象的全新事物。
“机器学习之父”Michael I. Jordan称,人工智能落地产业,目前缺乏对集体性、不确定性和激励机制的关注。
Michael I. Jordan指出,当前人工智能系统很难表达它真正学到哪些知识,也没有能力表达它有多确定,相较之下,人类在面对不确定性时表现出色,尤其是集体协作共同应对时,因此,不仅仅单独设备需要具备一定智能,人工智能更要通过协同体现在整体系统层面。
他指出,仅仅将人类的智慧融入超级智能计算机中是不够的,现代信息技术在医疗、交通、金融科技和商业领域的应用,需要集体性、去中心化的智能系统。
针对激励机制,Michael I. Jordan提出了三层数据市场(Three-Layer Data Markets)模型,其中用户、平台和数据买家通过出让数据、购买数据、提供服务形成了闭环,他强调,数据购买者可以结合“数据和服务”建立与用户的激励机制,从而为他们带来真正的价值。
阿里云创始人王坚称,AI+不是AI和产业的简单结合,而是数据、模型和算力的组合,云计算就是AI时代的基础设施。
王坚表示,当我们讲“人工智能+”的“+”时,不是加什么东西,而是怎么加,更重要的是一个机制创新。这个创新就是数据、模型和算力的组合。当数据、模型、算力的规模都有了巨大的变化,这时就一定要引入新的东西,那就是AI的基础设施。
香港科技大学校董会主席、美国国家工程院外籍院士沈向洋在2024外滩大会上也分享了自己对于人工智能技术的思考,在他的演讲中,谈到了大模型时代人机交互方式的演变,谈到了大模型发展如何推动图形界面、搜索、推荐、对话等技术进一步推动。
沈向洋指出,AI为人类提供了与技术共生的全新语境,与此同时,人机交互的新方式指向“AI与IA”的融合共进,IA即智能增强,代表着一种以人为本的 AI 发展路径,它聚焦于运用技术提升人类的能力,而非取代人类,强调了人类与 AI 之间的协作关系。
谈到AI Agent,沈向洋指出,AI Agent时代的到来,不会是一个神奇而强大的模型突然代替了所有的工作流,它涉及到技术、工程与市场的不断磨合,最终会以超预期的服务呈现给人类。
2024年,人工智能依然是全球科技创新高地,也正在全产业的基础技术和基础设施,接下来十年里,各行各业将如何面向智能基础设施进行智能化转型,重塑全球生产生活方式。
这次,我们得以在2024外滩大会上凯文·凯利、Michael I. Jordan、王坚、沈向洋等全球最强大脑的思辨中窥见一斑。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。