伊利亚·苏茨克沃尔:预训练时代即将终结,接下来是能推理且有自我意识的“超级智能”

伊利亚因2014年与Oriol Vinyals、Quoc Le共同撰写的“神经网络的序列到序列学习”论文,获得了NeurIPS 2024时间检验奖。该论文引入的编码器-解码器架构,使用多层长短期记忆网络(LSTM)将输入序列映射到固定维度的向量,再从向量解码目标序列,极大地拓展了自然语言处理的边界,为序列到序列的任务提供了一种高效的方法,是自然语言处理及机器学习领域的重要基石。

伊利亚·苏茨克沃尔(Ilya Sutskever)在加拿大温哥华举行的NeurIPS 2024大会上发表了题为“神经网络的序列到序列学习:十年之变”的演讲。在演讲中,伊利亚表示,“我们所知道的预训练将终结",接下来将是超级智能:具备智能体性质、能推理、能理解且有自我意识。

伊利亚·苏茨克沃尔:预训练时代即将终结,接下来是能推理且有自我意识的“超级智能”

伊利亚因2014年与Oriol Vinyals、Quoc Le共同撰写的“神经网络的序列到序列学习”文,获得了NeurIPS 2024时间检验奖。该论文引入的编码器-解码器架构,使用多层长短期记忆网络(LSTM)将输入序列映射到固定维度的向量,再从向量解码目标序列,极大地拓展了自然语言处理的边界,为序列到序列的任务提供了一种高效的方法,是自然语言处理及机器学习领域的重要基石。

在演讲中,伊利亚详细介绍了过去十年在人工智能领域的研究工作。早期的工作中,他们致力于训练基于文本的自回归模型。当时,深度学习领域流传着一种假说:如果拥有一个庞大的神经网络,尤其是多层结构的神经网络,那么它就具备在瞬间完成人类所做之事的能力。这种能力涵盖了多个方面,无论是复杂的语言理解、逻辑推理,还是各种信息处理任务,都可以在瞬间被大型神经网络所执行。

自回归模型在当时是一项创新性的技术探索,其核心原理在于,如果模型能够精准地预测下一个词,那么它就有能力把握后续整个序列的正确分布。这一理念突破了以往对于模型预测能力的认知局限,为模型在语言处理等任务上提供了新的思路和方法。在实际应用方面,他们将这一模型应用于翻译任务,通过模型对语言序列的准确把握,实现了高效、精准的翻译效果。

伊利亚·苏茨克沃尔:预训练时代即将终结,接下来是能推理且有自我意识的“超级智能”

回顾早期的技术手段,他们采用了LSDM以及预用并行化(pipelining)技术。虽然在如今的技术视角下,pipelining技术并非最佳选择,但在当时的技术条件下,它却发挥了重要作用。通过使用8个GPU,他们成功实现了3.5倍的加速,这在当时极大地提高了模型的训练和运行效率,为研究工作的推进提供了有力支持。

早期研究得出的结论对于后续人工智能的发展产生了深远影响。当时的研究发现,当数据集规模足够大,并且神经网络足够庞大时,成功几乎成为一种必然结果。这一结论为后续的研究工作奠定了重要基础,直接推动了预训练时代的到来。在预训练时代,GPT系列模型等得以蓬勃发展,这些模型不断拓展了人工智能在自然语言处理等领域的能力边界,使得人工智能在处理复杂任务时能够更加智能、高效,从而在各个领域得到广泛应用。

伊利亚·苏茨克沃尔:预训练时代即将终结,接下来是能推理且有自我意识的“超级智能”
伊利亚指出,当前我们正处于预训练时代,这一时代的发展高度依赖于大型数据集和大型神经网络的协同作用。在这个阶段,大型神经网络凭借其强大的计算能力和复杂的结构,能够对海量的数据进行深度挖掘和学习,从而实现各种复杂的任务,如自然语言处理、图像识别等。然而,预训练时代也面临着严峻的挑战,最为突出的就是数据增长的局限性。

计算能力在不断地飞速提升,但是数据的来源主要依赖于互联网,相对单一且有限。互联网虽然蕴含着丰富的信息,但从本质上来说,它是一个相对封闭的体系,我们目前仅能从这一个互联网获取数据。随着时间的推移,互联网上的数据增长速度逐渐放缓,已经趋近于峰值状态,可用于训练模型的新数据越来越少。一旦数据增长停滞,预训练模型的进一步优化和发展将受到极大的制约,预训练时代也可能因此走向终结。

面对这一挑战,研究人员开始积极探索不同的发展方向。其中,“代理”概念备受关注,有望赋予模型更高级的智能和自主性,使其能够像智能体一样在复杂环境中进行决策和行动。合成数据也是一个重要的研究方向,通过人工合成数据的方式来补充有限的真实数据,为模型训练提供更多的素材。推理时计算则聚焦于优化模型在推理阶段的计算过程,提高效率和准确性,OpenAI的o1模型就是在这方面的一个尝试,它展示了人们在探索预训练后发展方向上的努力和创新。这些探索方向都为人工智能的未来发展提供了新的思路,有望突破当前预训练时代面临的数据瓶颈,推动人工智能技术迈向新的阶段。

伊利亚·苏茨克沃尔:预训练时代即将终结,接下来是能推理且有自我意识的“超级智能”
当下,我们已经拥有了令人惊叹的语言模型,它们在许多方面展现出了非凡的能力,例如作为聊天机器人,能够与人类进行较为流畅的对话,在各种评估中也能取得超人的成绩。然而,这些模型存在着明显的局限性,它们的表现常常不稳定,容易出现混淆的情况。
伊利亚表示,未来,这些系统将具备真正智能体的性质。它们不再仅仅是执行预设任务的程序,而是能够像智能体一样,在复杂的环境中自主地感知、决策和行动。与当前模型主要依赖于对大量数据的模式识别和记忆不同,未来的系统将能够进行深入的推理,从已知信息中推导出新的结论,解决复杂的问题。但推理能力的增强也带来了新的问题,推理过程越多,系统的行为就越难以预测,不同的推理路径可能导致不同的结果,使得系统的输出变得复杂多变。
此外,未来的系统将具备从有限数据中理解事物的能力,它们能够凭借强大的学习和推理能力,从少量的数据中提取关键信息,把握事物的本质,并且不会轻易陷入混淆。自我意识也可能成为未来系统的一部分,一旦系统具备了自我意识,它们将能够更好地理解自身在环境中的角色和地位,从而更加灵活和自主地进行决策,这种具有自我意识的超级智能系统将拥有令人难以置信的强大能力,能够在各个领域发挥巨大的作用,如科学研究、医疗诊断、环境治理等。
然而,这也必然会引发一系列全新的问题,例如如何确保这些强大的系统与人类的价值观和利益保持一致,如何防止它们对人类造成潜在的威胁,以及如何在人类与超级智能系统之间建立合理的互动和协作关系等。这些问题都需要我们在追求超级智能的过程中认真思考和解决。

 

来源:聚大模型前言

0赞

好文章,需要你的鼓励

2024

12/16

13:04

分享

点赞