服务器主板包括PCIe总线、内存、GPU和SSD。CPU内部集成PCIe控制器和内存控制器,PCIe总线点对点连接CPU与各类高速设备,包括GPU、SSD和网卡等,伴随PCIe升级至5.0,新一代CPU平台产品将兼容PCIe5.0标准,带动各类高速设备同步升级;而内存将从DDR4型号升级至DDR5,相关厂商或将逐步进入量产阶段。
PCIe 1.0、2.0、3.0传输速率分别为2.5GHz、5GHz和8GHz,单lane带宽分别达到250MB/s、500MB/s和1GB/s。PCIe总线由不同lane连接,多个lane合在一起可提供更高带宽,两个单lane合成x2,两个x2合成x4,两个x4合成x8,目前最大为x16,带宽需求大的加速显卡需使用PCIex16。从主板插槽形态上看,x1最小,x16最大。PCIe 4.0可以带来最大64GBps的吞吐量(PCIex16),而PCIe 5.0则增加到128GBps(PCIe x16)。
2017年7月份,Purley的新一代服务器平台,Purley平台将产品型号命名方式由此前连续使用四代的E7/E5变为至强可扩展处理器(Intel Xeon Scalable Processor,SP),系列型号按铂金(Platinum)、金(Gold)、银(Silver)、铜(Bronze)定义。
服务器CPU架构包括X86、ARM和MIPS等,x86为当前服务器CPU主流架构,几乎占据目前服务器全部市场份额,代表性厂商为Intel和AMD。国内方面,海光、兆芯和申威等也参与X86架构CPU的国产化替代,目前主要定位政务市场。
短期来看,Intel在服务器市场历史深厚,全球CPU市占率在95%左右。未来2~3年内,Intel仍有望保持行业龙头的地位
好文章,需要你的鼓励
机器人和自动化工具已成为云环境中最大的安全威胁,网络犯罪分子率先应用自动化决策来窃取凭证和执行恶意活动。自动化攻击显著缩短了攻击者驻留时间,从传统的数天减少到5分钟内即可完成数据泄露。随着大语言模型的发展,"黑客机器人"将变得更加先进。企业面临AI快速采用压力,但多数组织错误地关注模型本身而非基础设施安全。解决方案是将AI工作负载视为普通云工作负载,应用运行时安全最佳实践。
MBZUAI研究团队发布了史上最大的开源数学训练数据集MegaMath,包含3716亿个Token,是现有开源数学数据集的数十倍。该数据集通过创新的数据处理技术,从网页、代码库和AI合成等多个来源收集高质量数学内容。实验显示,使用MegaMath训练的AI模型在数学推理任务上性能显著提升,为AI数学能力发展提供了强大支撑。
面对心理健康专业人士短缺问题,谷歌、麦肯锡和加拿大重大挑战组织联合发布《心理健康与AI现场指南》,提出利用AI辅助任务分担模式。该指南构建了包含项目适应、人员选择、培训、分配、干预和完成六个阶段的任务分担模型,AI可在候选人筛选、培训定制、客户匹配、预约调度和治疗建议等环节发挥作用。该方法通过将部分治疗任务分配给经过培训的非专业人员,并运用AI进行管理支持,有望缓解治疗服务供需失衡问题。
这项由多个知名机构联合开展的研究揭示了AI系统的"隐形思维"——潜在推理。不同于传统的链式思维推理,潜在推理在AI内部连续空间中进行,不受语言表达限制,信息处理能力提升约2700倍。研究将其分为垂直递归和水平递归两类,前者通过重复处理增加思考深度,后者通过状态演化扩展记忆容量。