Microsoft 的研究人员称他们已经开发出了迄今为止最大的 1-bit AI 模型,也被称为 “bitnet”。该模型名为 BitNet b1.58 2B4T,在 MIT 许可证下公开发布,并且可以在包括 Apple M2 在内的 CPU 上运行。
Bitnets 本质上是为轻量级硬件设计的压缩模型。在标准模型中,定义模型内部结构的数值即权重,通常经过量化处理,以便模型在各种设备上均能良好运行。对权重进行量化减少了表示这些权重所需的比特数 —— 比特是计算机能处理的最小单位 —— 这使得模型可以在内存较少、运行速度更快的芯片上运行。
Bitnets 将权重量化为仅三个值:-1、0 和 1。理论上,这使它们在内存和计算效率上远超当今大多数模型。
Microsoft 的研究人员表示,BitNet b1.58 2B4T 是首个拥有 20 亿参数的 bitnet(“参数”在这里基本上与“权重”同义)。据称,该模型在一个包含 4 万亿 Token 的数据集上训练 —— 一项估计相当于约 3300 万本书 —— 使其在性能上优于同类规模的传统模型。
需要明确的是,BitNet b1.58 2B4T 并未彻底超越所有竞品的 20 亿参数模型,但它似乎能够与之抗衡。根据研究人员的测试结果,该模型在 GSM8K(一组小学水平的数学问题)和 PIQA(测试物理常识推理能力)等基准测试中,表现均超过了 Meta 的 Llama 3.2 1B、Google 的 Gemma 3 1B 和 Alibaba 的 Qwen 2.5 1.5B。
更为引人注目的是,BitNet b1.58 2B4T 的运行速度比同等规模的其他模型更快 —— 在某些情况下,其速度是对方的两倍,而所需内存却只有极小的一部分。
然而,这也有一个前提条件。
实现这种性能需要使用 Microsoft 自研的框架 bitnet.cpp,而该框架目前仅支持某些特定硬件。支持芯片列表中并未包括统治 AI 基础设施格局的 GPU。
总的来说,bitnets 可能存在希望,尤其适用于资源受限的设备。但兼容性问题 —— 并且很可能将继续成为一个主要障碍。
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。