人工智能初创公司Liquid AI Inc.今日宣布在AI训练和定制方面取得突破性进展,推出名为"Nanos"的超小型模型,能够在专门任务上提供OpenAI GPT-4o级别的性能。
这些新模型的参数规模在3.5亿到26亿之间,足够小巧,可以直接在手机、笔记本电脑和嵌入式设备上本地运行。小型紧凑的前沿大语言模型使用户能够直接在设备上执行AI任务,无需云端支持。通过在本地处理所有AI推理,用户可以享受AI驱动的洞察和对话功能,同时确保隐私安全。
Liquid AI首席执行官Ramin Hasani表示:"Nanos颠覆了部署模式。我们不是将每个Token发送到数据中心,而是将智能传送到设备上。这解锁了速度、隐私、弹性和最终可扩展到每个人的成本结构。"
据Liquid介绍,尽管Nanos体积微小,但在可靠性方面接近前沿水平,为设备端智能体AI功能提供基础,具备精确数据提取、结构化输出生成、10多种语言的多语言转换、检索增强生成(RAG)支持、数学推理和工具调用等能力。
公司在首次发布中推出七款任务专用Nanos模型,计划扩展产品系列。其中包括LFM2-350M-ENJP-MT,这是一个可在智能手机上运行的日英翻译模型,以及LFM-350M-Extract,一个多语言数据提取模型,可从发票邮件中提取信息并格式化为JSON数据结构。
Liquid表示,这两个3.5亿参数模型的质量超越了比它们大10倍以上的通用开源模型。LFM2-350M-ENJP-MT在日英翻译方面的表现与GPT-4o相当,而后者估计比前者大500多倍。
公司使用广泛的文本训练了这个日语翻译模型,包括聊天消息、多段新闻文章、技术论文和正式写作。Liquid指出,该模型在公共llm-jp-eval基准测试上进行了评估,该基准主要包含维基百科一到两句文章的简短翻译和单句新闻项目。
在12亿参数规模下,公司发布了提取模型、基于大量信息使用RAG技术回答问题的模型,以及函数调用模型。
在一个例子中,Nano LFM2-1.2B-Extract作为350M模型的大型版本,可以用不同语言输出复杂数据对象,性能优于Google的Gemma 3 27B(比其大20多倍的模型),与GPT-4o性能相当。同时它足够小巧,可在大多数当前一代智能手机上运行。
Liquid表示,通过开发超小型、高性能的任务专用模型,为设备上运行的智能体提供支持网络。应用程序可以将特定任务需求外包给更小、更节能的模型,而不是依赖单一的高功率通用AI来支持智能和自动化。
首席技术官Mathias Lechner表示:"Liquid Nanos以零边际推理成本提供大型前沿模型的任务专用性能。我们的企业客户已成功将Liquid Nanos部署在从大规模高吞吐量云实例到低功耗嵌入式设备完全本地运行的各种场景中。"
Liquid的模型基于"液体神经网络"概念构建的专门架构,这是一种不同于生成式预训练Transformer模型(GPT)的AI网络分类,后者是当今ChatGPT和Gemini等流行聊天机器人的基础。公司声明,这种架构使其模型能够提供与市场上现有传统大语言模型相当甚至更好的性能。
AMD公司首席技术官兼执行副总裁Mark Papermaster表示:"Liquid的Nanos代表了AI PC的强大拐点,以紧凑、节能的形式提供前沿级性能。"他补充说,AMD认为设备端智能是可持续地大规模推广AI的关键。由于设备端AI模型不需要耗电的数据中心来执行,在智能手机、笔记本电脑和PC上进行的处理越多,整体能耗就越少。
公司表示,Liquid Nanos现已在Liquid边缘AI平台LEAP上提供下载,可集成到iOS和Android手机及笔记本电脑。开发者也可以在Hugging Face上访问这些新模型,并通过面向学者、开发者和小企业的广泛许可证直接使用。
Q&A
Q1:Liquid AI的Nanos模型有什么特殊之处?
A:Nanos是超小型AI模型,参数规模在3.5亿到26亿之间,但能提供OpenAI GPT-4o级别的性能。最大特点是可以直接在手机、笔记本等设备上本地运行,无需云端支持,既保护隐私又提供快速响应。
Q2:Nanos模型能完成哪些具体任务?
A:Nanos具备多项能力,包括精确数据提取、结构化输出生成、10多种语言翻译、检索增强生成支持、数学推理和工具调用等。例如LFM2-350M-ENJP-MT可进行日英翻译,LFM-350M-Extract能从发票邮件提取信息并格式化为JSON。
Q3:开发者如何获取和使用Nanos模型?
A:开发者可通过Liquid边缘AI平台LEAP下载Nanos模型,集成到iOS和Android设备。也可在Hugging Face平台直接访问这些模型,公司为学者、开发者和小企业提供了广泛的使用许可证。
好文章,需要你的鼓励
Anthropic发布了面向成本敏感用户的Claude Haiku 4.5大语言模型,定价为每百万输入令牌1美元,输出令牌5美元,比旗舰版Sonnet 4.5便宜三倍。该模型采用混合推理架构,可根据需求调整计算资源,支持多模态输入最多20万令牌。在八项基准测试中,性能仅比Sonnet 4.5低不到10%,但在编程和数学任务上超越了前代Sonnet 4。模型响应速度比Sonnet 4快两倍以上,适用于客服聊天机器人等低延迟应用场景。
上海AI实验室联合多家顶尖机构开发出全球首个科学推理大模型SciReasoner,该模型在2060亿科学数据上训练,支持103个科学任务,能够像科学家一样进行逻辑推理并展示思考过程。它实现了化学、生物学、材料科学等多领域知识整合,在分子设计、性质预测、文献分析等方面表现出色,为科学研究提供了强大的AI助手工具。
英国初创公司Nscale将为微软建设四个AI数据中心,总计部署约20万个GPU,合同价值高达240亿美元。首个数据中心将于明年在葡萄牙开建,配备1.26万个GPU。德州数据中心规模最大,将部署10.4万个GPU,容量从240兆瓦扩展至1.2吉瓦。所有设施将采用英伟达最新Blackwell Ultra显卡。
南洋理工大学研究团队开发出SHINE方法,这是一种无需额外训练就能实现高质量图像合成的新技术。该方法通过巧妙引导现有AI模型的潜能,能够在复杂光影条件下完美合成图像,包括准确的阴影生成和水面倒影效果。研究团队还创建了ComplexCompo基准测试集,验证了SHINE在各种挑战性场景中的卓越性能,为图像编辑技术的发展开辟了新方向。