在将 AI 融入我们世界的过程中,如果有一件我们迫切需要的东西,那就是哲学。
很多在现代大会上发言并撰写有关大语言模型论文的专家会同意我的看法:我们需要理解事物为何以这种方式运作,以及我们该如何使用它们。
本·富兰克林通过将金属制品与一根绳子绑在一起,并探究闪电为何以这种方式运作,从而创造了历史。
他是当时哲学社群的一员。而我们也需要类似的社群。
想到这里,我对 Abhishek Singh 在今年四月的活动 “混沌、协调与具有自主行动能力的 AI 的未来” 中的演讲印象深刻。
去中心化网络
Singh 是众多致力于推动互联网去中心化这一核心理念的研究者之一,并探讨这一理念与我们现有新技术的关联性。
在演讲中,他谈到了与连续性、异质性和可扩展性相关的智能的 “trilemma” ( 如果这还不算是量化术语的话,我不知道什么才算是 )。
他提到 “chaos theory 2.0”,讨论了去中心化网络与算法之间的联系,作为他所称之为 AI 自主性 “涌现现象” 的主要目标。
“一种看待这两种思维模型融合的方法是:我们当前解决智能问题的方式是依赖于一个大型 ( system ) 系统,集中在一家大型科技公司,能够同时处理所有任务。而另一种观点,则更多地来自于去中心化角度……即众多小型大脑彼此交互。单个小脑不足以应对,但聚集在一起,它们就能发挥巨大威力。”
每当我听到类似的说法,我总会联想到 Marvin Minsky 的 Society of the Mind 原理,一方面因为他是我的偶像,另一方面因为我认为这与我们所关注的问题息息相关。
去中心化及其挑战
Singh 同时指出了在实施去中心化计划时面临的各种挑战。
其中一些涉及隐私、验证和协调。
还有一些则与我们如何设计用户众包体验或构建相关网络有关。
Singh 提到复杂模型以及大规模协作中蕴含着亟待解决的固有问题。
还有一些则涉及激励机制。
https://youtu.be/V7s-deCTPSs
“一些个人和组织出于利他主义的原因提供开放数据集并志愿提供算力,”Singh 在前述论文中写道。“为去中心化系统贡献设立明确的激励结构可能会抑制利他精神,并减少那些旨在帮助而非谋利者的参与。人们已观察到,外部奖励会随着时间推移覆盖内在动机。当我们为人们曾经自愿执行的活动提供报酬时,他们往往会失去对这些活动的内在兴趣。因此,设计有效的激励方案需要仔细考虑社区规范、社会动机以及人类心理。目标应当是补充现有的利他主义,而不是取而代之。平衡激励与自愿参与机会的混合方法可能会有所帮助 ( i.e. combining economic and reputation-based incentives )。”
因此,在做出这些设计决策时,所有这些因素都必须被纳入考虑之中。
用它自己的话说
我必须承认,这份以 Singh 为作者的关于去中心化 AI 的论文内容相当繁琐,详细探讨了去中心化 AI 的运作方式及其面临的挑战。
所以我将它输入到 Google Notebook 中,以便通过生成对话工具中所使用的两个虚拟人物获得一种类似人类的反馈。
在最初几分钟内,他们讨论了一些基本概念,形容单一数据中心是一大漏洞,并多次提及发生被入侵时所带来的 “严峻警示” ( 他们多次使用该短语 )。
此外,还有数据所有权的问题。
接着,他们就去中心化 AI 的定义展开了讨论 ( 仅供娱乐,将此与上文 Singh 的定义进行对比 ):
“归根结底,去中心化 AI 是关于使不同的实体、公司、个人,甚至我们的设备能够在 AI 开发和部署上展开协作,”女声说道,“但关键的区别在于,这种协作无需由单一的中央权威来做出所有决策。”
“没错,”男声回答道,“没有大老板。”
“正是如此,”他的同伴说道,“可以把它看作是一种让拥有各自分布式资源、数据和算力的不同方得以协作的方式,即便彼此之间并不完全信任,或者不愿将控制权交给单一的中心参与者。因此,与其拥有位于某个中心服务器上的巨大 AI 大脑,不如构建由多个较小、相互连接的单元共同协作的网络。”
他们继续这样讨论了一会儿。在我看来,Google Notebook 中的 LM “人物”似乎走向了某种过于简单化的方向。于是我回到原论文,重新审视其部分更宏观的内容。
以下摘自结论部分:
“本文阐明了去中心化 AI 的优点、应用场景及挑战。我们论证称,去中心化 AI 开发能够解锁此前无法获取的数据和算力,从而促使 AI 系统在诸如医疗保健等对数据敏感的领域中蓬勃发展。我们提出了一种自组织的视角,并认为要实现去中心化实体之间的自组织,需要整合五个关键要素:隐私、可验证性、激励、协调以及用户众包体验。这种自组织方法解决了当前中央化范式的若干局限性——该范式过于依赖少数主导实体的整合和信任。……我们认为去中心化 AI 有潜力赋能个人、激发创新,并塑造一个使 AI 造福全社会的未来。”
另外,你还可以查看各类维恩图,了解如何弥合传统 AI 系统固有的一些问题。
去中心化的载体
现在,我在 Singh 的演讲中还注意到另一点——在最后,他提到了一个可能对去中心化 AI 至关重要的首字母缩略词。
它被称为 NANDA 或 Networked Agents and Decentralized AI,由一个团队开发,该团队成员包括 Singh 以及我在 MIT 的同事 Ramesh Raskar。
完全披露一下,他们在网站上以一种较为间接的方式将我列为合作伙伴。
但致力于此项目的人已经能直观地预见到,当我们打造一个拥有人工智能力量的新型去中心化互联网时的情景。
随着 2025 年的到来,以及我们开始见证 AI 更实际能力的展现,这将是我们应当密切关注的问题。
好文章,需要你的鼓励
是德科技高级副总裁兼通信解决方案事业部总裁Kailash Narayanan现场指出,算力固然重要,但如果能耗过高,技术的实用性将大打折扣,因此,所有的高速、高性能计算,都必须在极低的功耗下实现,这是AI等技术能否大规模落地的核心前提。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。