国产开源之光:DeepSeek-V3划重点
DeepSeek-V3 采用了 671B 参数 MoE 架构,配备约 37B 激活单元,训练使用14.8T Token数据。
一路走来,从一个低调、但能引起行业普遍降价的选手,到现在的国产+开源之光引发全球瞩目。最近刚刚其最新的DeepSeek-V3发布后,海内外一片刷屏。本篇就划几处重点:
一句话介绍:DeepSeek-V3 采用了 671B 参数 MoE 架构,配备约 37B 激活单元,训练使用14.8T Token数据。
数学能力 / MATH 500、AIME 2024 等测试:显著优于 Claude 3.5 Sonnet 和 GPT-4o;
代码能力 / Codeforces: 同样优于其他主流大模型,刷新了SOTA。
3、极佳训练成本优势:总计消耗了 278.8 万 GPU 小时。按照 NVIDIA H800 每小时 2 美元的租赁价格计算,训练成本约为 560 万美元。(相比之下,Llama 3模型的计算消耗了3930万H100小时...)
低训练成本可能是本次DeepSeek-V3在海外产生的最大反响的一点:
DeepSeek-V3的训练仅使用了2048张H800 (然而,H800 的互连带宽较低:300 GB/s,对比 H100 的 900 GB/s,这在训练过程中可能成为性能瓶颈,因为节点间的通信效率会受到影响,为此DeepSeek提出了多种优化方案,例如自主研发通信内核而非依赖张量并行,以及采用混合精度(FP8)训练等技术来提升效率。)
(搬运官方信息)通过算法和工程上的创新,DeepSeek-V3 的生成吐字速度从 20 TPS 大幅提高至 60 TPS,相比 V2.5 模型实现了 3 倍的提升,为用户带来更加迅速流畅的使用体验。
最后,根据Artifical Analysis的独立测评报告“A new leader in open source AI”:
DeepSeek-V3在其Quality Index榜单上超过GPT-4o,仅次于o1和Gemini 2.0 Flash,与Claude 3.5 Sonnet持平。
在此前DeepSeek-V2的文章中曾经提到过其核心技术创新MLA(可见开源模型社区又一位重量级选手掀桌子),这些技术在V2得到验证后,现在也成为了V3的技术核心。此外互联网上,包括大神Andrej Karpathy也给予了极高评价:
应该表示祝贺!Congratulations to DeepSeek,也祝那些真正走在星辰大海路上的选手创造更多佳绩!
0赞好文章,需要你的鼓励
推荐文章
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。