
近日,GeekBench 6.2数据库里出现了一颗新的海光处理器,检测编号C86-4G,实际型号C86-3490,与现有8核心的C86-3350同样属于C86-3000系列,显然架构是相通的。
不过,C86-3490升级到了16核心,只是频率偏低,基准只有区区2.8GHz,搭配32GB内存。


实测单核跑分1073,和8核心的几乎完全相同,证明架构没变。
但是,只有Zen3架构、3.9-4.4GHz频率的锐龙5 5600G的一半,毕竟架构、频率都差异巨大。
多核跑分8811,对比8核心的提升了超过50%,并不算很出色,而且还打不过少了10个核心的锐龙5 5600G。
不过,基本达到了同样初代Zen架构、同样16核心的线程撕裂者1950X的水平。


好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。