AI芯片的基础关键参数”,算力是衡量计算机处理信息能力的重要指标,其中AI算力专注于AI应用,常见单位为TOPS和TFLOPS,通过GPU、ASIC、FPGA等专用芯片提供算法模型训练和推理。算力精度作为衡量算力水平的一种方式,其中FP16、FP32应用于模型训练,FP16、INT8应用于模型推理。
AI芯片通常采用GPU和ASIC架构。GPU因其在运算和并行任务处理上的优势成为AI计算中的关键组件,它的算力和显存、带宽决定了GPU的运算能力。GPU的核心可分为CudaCore、Tensor Core等;Tensor Core是增强AI计算的核心,相较于并行计算表现卓越的Cuda Core,它更专注于深度学习领域,通过优化矩阵运算来加速AI深度学习的训练和推理任务,其中Nvidia Volta Tensor Core架构较Pascal架构(Cuda Core) 的AI吞吐量增加了12倍。此外,TPU作为ASIC的一种专为机器学习设计的AI芯片,相比于CPU、GPU,其在机器学习任务中的高能效脱颖而出,其中TPU v1在神经网络性能上最大可达同时期CPU的71倍、GPU的2.7倍。
好文章,需要你的鼓励
皮尤研究中心最新分析显示,谷歌搜索结果页面的AI概述功能显著降低了用户对其他网站的点击率。研究发现,没有AI回答的搜索点击率为15%,而有AI概述的搜索点击率降至8%。目前约五分之一的搜索会显示AI概述,问题类搜索中60%会触发AI回答。尽管谷歌声称AI概述不会影响网站流量,但数据表明用户看到AI生成的信息后更容易结束浏览,这可能导致错误信息的传播。
约翰霍普金斯大学研究团队开发了ETTIN模型套件,首次实现了编码器和解码器模型的公平比较。研究发现编码器擅长理解任务,解码器擅长生成任务,跨界训练效果有限。该研究为AI模型选择提供了科学依据,所有资料已开源供学术界使用。
GlobalData研究显示,人工智能驱动的预测性维护正成为电力行业追求高可靠性和成本效益的关键组成部分。该技术结合数据分析、机器学习和实时监控,能够更准确预测设备未来状况,有望降低维护成本30%,提高设备可用性20%。GE Vernova、西门子等公司提供先进解决方案,而数字孪生技术、物联网和边缘计算等新兴技术正进一步提升维护策略的准确性和效率。
博洛尼亚大学团队开发出情感增强的AI系统,通过结合情感分析和文本分类技术,显著提升了新闻文章中主观性表达的识别准确率。该研究覆盖五种语言,在多项国际评测中取得优异成绩,为打击虚假信息和提升媒体素养提供了新工具。