Ollama是一个专门在本地计算机上运行大语言模型的运行时系统,现已新增对苹果开源机器学习框架MLX的支持。此外,Ollama还改进了缓存性能,并支持英伟达的NVFP4格式进行模型压缩,大幅提升了特定模型的内存使用效率。
这些改进结合在一起,为搭载苹果芯片(M1或更新版本)的Mac电脑带来了显著的性能提升。时机恰到好处,因为本地模型正开始在研究者和爱好者群体之外获得更广泛的关注。
最近OpenClaw的爆红现象——在GitHub上迅速获得超过30万个星标,通过Moltbook等实验引起轰动,并在中国引起特别关注——让许多人开始尝试在自己的机器上运行模型。
随着开发者对Claude Code或ChatGPT Codex等工具的速率限制和高昂订阅费用感到沮丧,本地编程模型的实验热度不断升温。(Ollama最近还扩展了Visual Studio Code集成功能。)
新支持功能目前处于预览阶段(Ollama 0.19版本),目前仅支持一个模型——阿里巴巴Qwen3.5的350亿参数版本。对于普通用户来说,硬件要求相当严格。根据Ollama的公告,用户不仅需要配备苹果芯片的Mac电脑,还需要至少32GB的内存。
此外,Ollama现在能够利用苹果M5系列GPU中的全新神经加速器,因此那些最新款Mac应该在每秒Token数和Token响应时间方面获得额外优势。
虽然本地模型在基准测试中仍落后于前沿模型,但我们正逐渐达到这样一个程度:它们在某些任务上已经足够好,用户可能无需为此付费订阅。当然,与基于云的服务相比,本地运行模型还具有隐私优势,不过我们绝对不推荐像OpenClaw那样让模型深度访问系统的设置。主要障碍仍然是设置难度(Ollama主要是命令行工具,尽管已有其他界面可用)和硬件能力,特别是显存需求。
苹果的MLX框架为苹果芯片的内存提供了优化访问,GPU和CPU共享内存——这与Ollama之前针对的配备独立GPU的台式机采用了不同的方法。这并不意味着对大多数用户来说云端模型和本地模型之间的差距完全消失,但对现代Mac用户来说,这可能是朝着正确方向迈出的一步。
Ollama尚未公布MLX支持何时退出预览阶段并扩展到更多模型的时间表。
Q&A
Q1:Ollama的MLX支持有什么新功能?
A:Ollama新增了对苹果开源机器学习框架MLX的支持,还改进了缓存性能,并支持英伟达的NVFP4格式进行模型压缩,为搭载苹果芯片的Mac电脑带来显著性能提升。
Q2:使用Ollama的MLX支持需要什么硬件配置?
A:需要配备苹果芯片(M1或更新版本)的Mac电脑,并且至少需要32GB内存。搭载M5系列GPU的最新Mac还能获得额外的性能优势。
Q3:本地大语言模型相比云端模型有什么优势?
A:本地模型的主要优势是隐私保护,用户数据不需要上传到云端。此外,对于某些任务,本地模型已经足够好用,可以避免付费订阅云端服务的费用。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。