在今天的专栏中,我将探讨一个关键辩题:人类智能是否实际上就是一种计算智能形式。
其核心观点是这样的。一些人坚定地认为,我们已经找到了让AI达到人类智能水平的方法,现代大语言模型、生成式AI和计算Transformer就是证据。更进一步,也是最关键的一点,他们声称人类智能与计算智能本质相同。大脑和心智就是计算机制,只不过是以生化方式而非传统数字比特和字节的形式运行。
这个深刻的话题是哈佛大学伯克曼克莱因中心(BKC)2025年9月24日秋季演讲系列开场活动的焦点。我最近有幸受邀参加了哈佛大学9月12-14日举办的特别AI研讨会,该会议探讨了AGI的预期到来,这是一次杰出的聚会,我有机会了解BKC并与BKC研究人员、合作伙伴和教师建立联系。
开启这一激动人心秋季系列的尊贵演讲者是布莱斯·阿格拉·伊·阿卡斯,他担任谷歌技术与社会部首席技术官以及副总裁兼研究员。在他引人入胜的演讲中,他有力地支持并强烈拥护心智即计算的前提。他新出版的书籍《什么是智能?来自AI关于进化、计算和心智的启示》(MIT出版社)正是探讨这一挑衅性立场。在这本厚达624页的著作中,他深入阐述了提出此类主张的基础。这场值得观看、令人难忘的开场活动由BKC执行主任亚历克斯·帕斯卡尔巧妙主持。
关于心智的隐喻
人们用无数隐喻来描述人类心智的运作方式。我相信你听过很多这样的比喻。考虑一些流行的例子。心智是一个图书馆,储存知识并允许你根据需要检索内容。心智是一个管弦乐队,大脑的不同部分像各种专门的乐器,它们需要和谐地协同工作才能表现出色。等等。
在当代,心智被隐喻性地描绘为一台计算机。当我们想要获得新的视角时,我们重启大脑。分享思想的行为类似于向周围的人提供输出。如果你的心智充满了太多想法,你的内部记忆就会溢出。你可能会出现故障或需要调试你的思想。
准备好让你的心智震撼,因为关于大脑相关隐喻有一个可能让你感到惊讶的替代观点。
正如布莱斯·阿格拉·伊·阿卡斯在BKC演讲中所说:"说大脑是计算机并不是隐喻。它们不像计算机;它们就是计算机。"是的,他的主张是大脑和计算机的本质之间没有区别。大脑实际上就是一个计算实体。它不使用机械齿轮或机器部件;尽管如此,大脑在计算基础上运行。
需要注意的是,并非所有人都同意这个大胆的假设。
无论如何,这个话题对于促进我们对人类心智的理解具有巨大价值,同样也推动我们努力推进AI计算智能朝向通用人工智能发展,最终到达人工超级智能或ASI。
预测性大脑假说
让我们简要深入了解大语言模型的内部工作原理,看看整体上发生了什么。
当你选择使用ChatGPT、Claude、Gemini、Grok或任何主要大语言模型时,以下是在30000英尺高度发生的事情。你将文本作为提示输入AI。文本被编码为Token,这些是单词和单词部分的数字表示。Token流经一个称为人工神经网络(ANN)的大规模结构。ANN已经在可能数万亿个从互联网扫描的单词上进行了数据训练,并在数学和计算上对人类写作方式进行了模式匹配。
AI试图预测应该向你传达什么单词,基于你输入的提示。这是通过使用Token的计算过程完成的;这完全关乎数字。通过利用ANN,逐步构建响应,选择每个下一个Token。然后Token被解码回文本作为单词。瞧,大语言模型产生一个响应,可能是一篇文章、叙述、诗歌或某种形式的写作,本质上是对人类组词方式的模仿。
总的来说,AI研究人员将这种总体方法称为单词预测器。AI试图通过计算确定适当的下一个单词应该是什么,一步一步地进行,这些单词希望能结合成连贯的自然语言段落。
那些相信大脑是计算实体的人会宣称心智的工作方式类似。这通常被称为预测性大脑假说。假设是当有人与你交谈时,你的大脑和心智接收数据,将声音转换为内部生化Token(可以这样说),这些Token流经你头脑中的生物神经网络。接下来,你内部基于心智的神经网络寻求预测合适的输出,首先通过生化Token进行,然后将这些转换为可理解的口语单词。
关键是大脑和心智被建议为与计算智能的发生方式完全相似地运作。抛开隐喻。大脑不仅仅类似于计算机;它就是计算智能的一种形式。
理论的美感
相信大脑具有计算性质的信念具有内在的美感。
你可以断言人类智能和认知可以解释为信息处理器。大脑和我们的心智本质上是在生物硬件上运行的计算算法。这将我们带到诱人的概念亲缘关系,即心智符合著名的邱奇-图灵论题,该论题指出所有有效的计算过程都可以被计算。
计算主义为理解大脑和心智在做什么提供了一个清洁和直接的框架。我之前注意到,这种心智即计算的观点可以用来说明心理理论(ToM)不仅仅是人类心智的专属领域。AI计算智能可以被视为ToM的模拟版本。
另一个重大优势是,这似乎减少了ANN和构成我们湿件的生化神经网络之间的摩擦。目前,ANN与真正的神经网络所做的相去甚远。ANN充其量是对真实事物的高度简化计算模型的粗糙表示。尽管存在巨大差距,我们大概走在正确的道路上,试图将大脑的神经元模拟为基于计算机的信息处理单元。ANN的术语是数学和计算方面涉及神经激发、突触权重,并使用我们在大脑回路映射中观察到的加权输入输出变换。
这只是一种方便的表述方式,还是我们已经击中要害?
相信我们当前的AI方法与人类智能完全一致将是极大的安慰。这些前提是巨大的宽慰。计算智能在做人类智能所做的同样事情。人类智能在做计算智能所做的同样事情。
我们已经淘到金子并找到了隐藏的金矿。
扩展让我们到达那里
如果我们碰巧已经找到了AI的正确架构和设计,即它类似于人类智能的产生方式,那么问题就来了:为什么当前的AI没有完全在人类智能的水平上表现?我们还没有AGI。我们现在不应该拥有AGI吗?
啊哈,一些人说,原因是由于规模。
想法是我们需要扩大现有的AI。我们必须建造大规模计算中心,拥有大量高端服务器和计算能力。这种策略背后的逻辑是这样的。到目前为止,似乎通过分配更多计算处理、更快的GPU等,大语言模型和生成式AI正在变得越来越好。因此,让我们继续做同样的事情。
AI内部人士非常熟悉现在经典的论点,即通过增加更多计算,AI领域历史上似乎取得了进步。
在AI著名先驱理查德·萨顿六年前于2019年3月13日发表的一篇著名短文中,他充分相信更多计算将是推进AI的最明智路径:
"从70年AI研究中可以得出的最大教训是,利用计算的通用方法最终是最有效的,而且差距很大。其根本原因是摩尔定律,或者更确切地说,是每计算单位成本持续指数下降的概括。"
"大多数AI研究都是在智能体可用计算恒定的假设下进行的(在这种情况下,利用人类知识将是提高性能的唯一方法),但在比典型研究项目稍长的时间内,大量更多的计算不可避免地变得可用。"
"寻求在短期内产生差异的改进,研究人员寻求利用他们对领域的人类知识,但从长远来看,唯一重要的是利用计算。"
"我们必须学习痛苦的教训,即构建我们认为我们思考的方式从长远来看是行不通的。"
撞墙的担忧
等一下,一些AI内部人士劝告说,可能规模不会成为你认为的关键差异化因素。也许我们走错了路。可能大语言模型和生成式AI的架构和设计在实现AGI方面是死路一条。
也许我们现在正在愚蠢地追求一条康庄大道。数十亿美元的计算将被用于扩展一个将撞上坚不可摧之墙的设计和架构。遗憾的是,当我们意识到这种情况发生时,我们将把所有鸡蛋都放在一个不成功的篮子里。
与其盲目跟随当代大语言模型的魅惑人心的号召,我们必须多样化并积极探索有价值的替代方案。不幸的是,所有关注和资金几乎完全流向现有的AI方法。很少有激励措施和边际资金留给跳出框框思考。
有趣的是,理查德·萨顿似乎在唱类似的调子,表明我们正走在一条不会富有成果地让我们到达AGI的大道上。在2025年9月26日播出的最近一期播客中,他表示我们需要超越大语言模型和计算Transformer的新AI架构。他的评论包括大语言模型未能涵盖基本真理,预测下一个Token的行为不是获得AGI的适当目标。
他的期望,与AI领域越来越多的其他人分享,是需要一个新的范式。我们今天所知的大语言模型将不可避免地过时。对于那些完全选择将自己的研究、名声和财富与生成式AI和计算Transformer绑定的人来说,这是一个令人痛苦的打击。
可解释性和可解释性
为了讨论起见,假设大脑基于计算智能。如果是这样,就有一个令人兴奋的前景。理解大脑和心智如何完成事情的可能性大概在我们的掌握之中。
让我详细说明。
我们面临两个强大的未知数,它们还没有屈服于我们解开它们的福尔摩斯式努力。
首先,就大脑而言,大约860亿个神经元和100万亿个突触如何产生人类思维仍然是一个巨大的谜团。众多且极其激烈的神经科学研究继续测量大脑活动,并寻求展示与我们灌输思想和成为有意识存在的能力的联系。我对一些最近新的大脑回路映射AI驱动的基础模型特别兴奋,这些模型可能为我们提供解释这个未解之谜的优势(我将在即将到来的帖子中介绍这一点)。
其次,就大语言模型和生成式AI而言,关于这些大型ANN如何产生看似人类思维或至少人类思维的外观,存在巨大的谜团。当然,你可以费力地追踪人工神经网络内部Token和数字从这里到那里的流动,但我们仍然处于关于ANN内部元素在哪里以及如何逻辑地产生如此令人印象深刻的结果的黑暗时代。
我专栏的热心读者都很清楚,我是能够破解代码并揭开AI模型内部工作原理神秘面纱的热情倡导者。我们必须解密AI并找出如何解释内部发生的事情,使AI透明和可解释。我们的未来和AI的未来都取决于此。
AI可解释性的最新技术
AI的可解释性和可解释性仍然是一个新兴的研究领域。
我深入分析了推动AI可解释性发展的方法,例如:
使用IRT方法和Thurstonian效用模型的AI可解释性;
从一开始就在AI中构建可解释性,称为XAI(可解释的AI);
通过ANN的计算中介进行特征的概念映射并利用单语义性;
倾向于识别激活空间中的线性方向,由人格向量表示;
以及其他帖子。
这里跳出框框的思考是,我们学到的关于解密AI的任何东西都可能应用于解密人类心智。此外,这是双向的,即我们学到的关于解密人类心智的任何东西都可能应用于揭示当代AI的内部机制。
如果你采用人类大脑植根于计算智能的前提,这将特别如此。
另一个值得注意的快速点是,许多人没有意识到心理学领域和AI领域在历史上有着相互交织、协作的联系。心理学理论和心智探测方法可以协同促进AI的进步。同样,AI理论和实践可以协同促进心理学和人类心智本质的进步。
未来由我们决定
对于那些坚信人类智能确实是计算智能的人,我祝愿你们在证明这一论点的努力中一切顺利。继续前进。让我们知道你们要说什么。
同时,对于那些坚决相信人类智能不是计算智能的人,我同样敦促你们继续前进并让你们的观点为人所知。指出心智即计算的一方在哪里出了错。也许隐喻是对的,我们只能合理地将心智视为计算,即心智明确不是实际的计算智能。这只是一个隐喻。坚持你们的立场并分享你们的见解。
现在的最后一个想法来自约翰·F·肯尼迪:"变化是生活的法则。那些只关注过去或现在的人肯定会错过未来。"关于人类的未来也可以正确地这样说,特别是在揭示和理解人类智能的本质和计算智能的本质时。
展望未来,从过去学习,但不要陷入过去。在这些紧迫问题上保持开放的心态价值连城。
Q&A
Q1:什么是心智即计算的理论?它的核心观点是什么?
A:心智即计算理论认为人类大脑和心智本质上就是计算实体,它们以生化方式运行计算过程,就像计算机一样。该理论的支持者认为大脑不仅仅类似于计算机,而是真正的计算机。当我们思考时,大脑将输入转换为内部"生化Token",通过生物神经网络处理,然后产生输出,这个过程与AI的工作方式本质相同。
Q2:目前的大语言模型是如何工作的?它们与人类思维有什么相似性?
A:大语言模型通过预测下一个单词来工作:输入文本被编码为Token,通过人工神经网络处理,AI基于训练数据预测最合适的下一个Token,最终组成连贯的文本回应。支持者认为这与人类大脑的预测性机制相似——当别人说话时,我们的大脑也在预测和处理信息,然后产生合适的回应。
Q3:为什么现在的AI还没有达到人类智能水平?扩展计算规模能解决这个问题吗?
A:一些研究者认为是规模问题,需要更多计算资源、更大的模型来实现AGI。但也有专家担心这种方法可能遇到瓶颈。理查德·萨顿等专家认为可能需要全新的AI架构,而不仅仅是扩展现有的大语言模型。他们指出预测下一个Token可能不是实现AGI的正确目标,需要探索新的范式。
好文章,需要你的鼓励
TELUS与NVIDIA和HPE合作,在魁北克省里穆斯基市推出加拿大首个完全主权AI工厂。该设施运行在加拿大本土基础设施上,让企业能够在不跨境的情况下开发、训练和运营AI模型。设施采用可再生能源,具备高效冷却系统。这一举措呼应了全球主权AI发展趋势,旨在确保加拿大在敏感数据处理方面的自主权,为医疗和金融等行业提供符合数据驻留要求的AI解决方案。
伊利诺伊大学等机构研究团队通过大规模实验发现了推荐系统中两种全新现象:双峰现象(性能先升后降再升再降)和对数现象(持续稳定提升)。研究揭示数据噪声是影响推荐系统可扩展性的关键因素,并发现SGL模型因其独特的抗噪机制表现最佳。该发现颠覆了传统认知,为推荐系统优化提供新思路,在某些情况下仅通过增加嵌入维度就能获得25%以上的性能提升。
Moonlock发布的2025年Mac安全调查显示,Mac用户对恶意软件的认知正在发生重要转变。仅15%的受访者认为macOS免疫恶意软件,较2023年的28%大幅下降。66%的Mac用户在过去一年中至少遭遇过一次网络威胁。调查还发现,72%的用户担心人工智能助长网络威胁,46%认为需要额外安全软件保护。
浦项科技大学研究团队发现当前AI模型缺乏音频推理能力,仅凭文字描述无法判断声音属性。他们构建了AuditoryBench++测试平台,涵盖音调、音量比较等5类任务,发现主流AI模型表现接近随机猜测。研究团队提出AIR-CoT方法,通过两阶段训练让AI学会"想象"声音:先识别需要音频推理的文本片段,再调用音频知识模块生成声音特征。实验显示该方法显著提升了AI的音频推理能力。