如果你能够获得传统大语言模型的输出效果,同时能耗却降低10到20倍,会怎么样?
如果你能够在手机上直接运行强大的大语言模型,又会怎么样?
事实证明,新的设计理念正在推动新一代AI平台的发展,这些平台将节约能源,释放各种全新和改进的功能,同时重要的是,还能提供边缘计算能力。
什么是边缘计算?
边缘计算是指数据处理和其他工作负载在接近数据源的地方进行,换句话说,就是在终端设备上进行,比如数据收集硬件或用户的个人设备。
另一种描述方式是,边缘计算开始让我们从云时代回归,在云时代,人们意识到可以集中存储数据。是的,你可以使用这些供应商服务,让客户端免于处理本地系统,但这会产生传输成本,而且通常控制力较弱。如果你能够在硬件设备上本地运行操作,这将创造各种效率,包括与能源消耗和应对气候变化相关的效率。
新兴的液体基础模型正在崛起,它们从传统的基于Transformer的大语言模型设计创新发展为其他形式。
2024年9月,Carl Franzen在VentureBeat上发表的一篇文章涵盖了一些相关设计。我需要声明:我被列为Liquid AI的顾问,我认识MIT CSAIL实验室的很多研究人员,这项工作正在那里进行。但不要只听我的话,看看Franzen怎么说。
"新的LFM模型在性能上已经超越了同等规模的其他基于Transformer的模型,如Meta的Llama 3.1-8B和微软的Phi-3.5 3.8B,"他写道。"这些模型不仅在原始性能基准测试上具有竞争力,在运营效率方面也表现出色,使它们适用于各种用例,从金融服务、生物技术和消费电子等领域的企业级应用,到边缘设备的部署。"
项目负责人的更多见解
今年4月,Will Knight和Liquid AI的Ramin Hasani在IIA进行了一次访谈。
Hasani谈到了Liquid AI团队如何利用线虫(具体来说是秀丽隐杆线虫)的大脑开发模型。
他谈到了这些后Transformer模型在设备、汽车、无人机和飞机上的应用,以及在预测金融和预测医疗方面的应用。
他说,LFM可以完成GPT的工作,在设备上本地运行。
"它们能够听,也能够说话,"他说。
更多新发展
Hasani表示,自最近项目启动以来,Liquid AI一直在与大公司进行商业讨论,探讨如何将这项技术很好地应用于企业。
"人们关心隐私,关心AI的安全应用,也关心AI的低延迟应用,"他说。"这三个方面是企业无法从其他类型的AI公司那里获得价值的地方。"
在谈到创新者应该"内心是科学家"时,Hasani回顾了离线运行大语言模型的一些基本价值主张。
看,无需基础设施
围绕LFM的这次特定对话中得出的一个主要观点是,如果它们在设备上离线运行,你就不需要连接系统的扩展基础设施。你不需要数据中心或云服务,或任何类似的东西。
本质上,这些系统可以实现低成本、高性能,这只是人们谈论将"摩尔定律"概念应用于AI的一个方面。这意味着系统正在快速变得更便宜、更多样化、更易于管理。
因此,随着我们看到更智能的AI出现,请密切关注这种发展。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。