我们花了1000亿美金,却离AGI越来越远了?

在AI界,对于如何进一步推动AI的发展,存在两种主要观点。第一种观点认为,计算能力是AI进步的唯一瓶颈。另一种观点却认为,数据才是关键。

我们花了1000亿美金,却离AGI越来越远了?

前言
关于AI的未来讨论越来越热烈,有人甚至说人工智能将成为人类历史上最伟大的项目之一。可是你知道吗?就在我们享受AI带来的便捷时,背后其实面临着巨大的挑战。
自2022年秋季训练GPT-4以来,NVIDIA GPU上的花费已经高达1000亿美元。那么,这些投资能否带来预期的突破?今天,我们就来聊聊这个话题。

01

天价投入背后的两种声音

我们花了1000亿美金,却离AGI越来越远了?

在AI界,对于如何进一步推动AI的发展,存在两种主要观点。第一种观点认为,计算能力是AI进步的唯一瓶颈这群人相信,只要我们不断增加计算资源的投入,就能不断提升AI的性能,甚至最终实现AGI(通用人工智能)。简单来说,就是有钱能使AI推磨。就像建造一座高楼大厦,只要有足够的钢筋水泥(计算能力),楼一定可以盖得越来越高。

然而,另一种观点却认为,数据才是关键他们认为我们正面临一个“数据墙”的瓶颈,无论我们拥有多少计算能力,如果没有足够的数据,AI的进展都会放缓。数据墙的存在让人们意识到,仅靠增加计算能力,已经不能带来显著的性能提升。我们必须同时扩展数据量,才能看到更好的结果。

那么,数据墙到底是什么呢?其实,数据墙就像是我们在玩一个游戏,不管你多厉害,如果没有新的关卡和资源,你就会停滞不前。AI也是一样,再多的计算能力,如果没有足够的新数据来训练,效果也会大打折扣。

02

突破数据墙的可能方法

我们花了1000亿美金,却离AGI越来越远了?

 

面对数据墙,业界提出了几种潜在的解决方案,希望能够突破这个瓶颈:

首先是高端专家数据。这些数据比普通互联网数据更有价值,就像有经验的老师给你指点迷津,效率自然高很多。高端专家数据通常来自于专业领域的权威和前沿研究,能提供深度和广度兼备的信息。

其次是强化学习(RL)环境。在这种环境下,AI可以通过模拟和自我学习,不断生成新的数据。这类似于AI在一个虚拟世界中自我修炼,积累经验。例如,在一个虚拟驾驶环境中,AI可以无限次地模拟驾驶场景,从而不断优化自己的驾驶技能。

最后是合成数据。这是一种通过算法生成的数据,能够弥补实际数据的不足。就像电影中的特效,虽然是虚拟的,但看起来同样真实。合成数据可以模拟各种复杂场景和条件,帮助AI模型进行全面训练。

这些方法看起来很有前途,但能否真正突破数据墙仍是未知数。有些专家认为,数据墙只是暂时的技术障碍,可以通过工程设计来解决;另一些人则担心这会导致AI发展的长期停滞。我们可以把数据墙看作是马拉松比赛中的“极点”,有人认为熬过去就行,有人则认为可能跑不完。

03

分散的资源与未来的不确定性

我们花了1000亿美金,却离AGI越来越远了?

除了数据和计算能力的挑战,还有一个实际问题是:资源的分配。1000亿美元的GPU投入其实是分散在多个实验室中。像谷歌、OpenAI、Meta、Anthropic等大型实验室,各自占有的资源都不超过总供应量的10-20%。

这意味着,即使某个实验室投入巨资,也很难在短时间内看到单个模型上的巨大突破。这就像是几支足球队分散训练,每支队伍的资源有限,难以形成绝对的优势。

未来的进展或许还依赖于新的算法突破,能够超越当前的缩放定律范式。这也意味着,我们可能需要更大规模的投资,比如5000亿美元,才能真正看到AI的显著进步。

写在最后的话

AI的未来充满了不确定性,计算和数据的挑战依然存在。尽管如此,人工智能毫无疑问将继续改变我们的生活,成为人类历史上最伟大的项目之一。

你怎么看待这些挑战和未来的AI发展?欢迎在评论区分享你的观点,并转发这篇文章,让更多人一起探讨AI的未来吧!

 

来源:AI Pioneer

0赞

好文章,需要你的鼓励

2024

06/17

17:04

分享

点赞