部署在云端/数据中心的AI芯片,按照处理任务具体分为云端训练和云端推理两部分,共包含 9 家 厂商,分别来自百度、燧原科技、NVIDIA、赛灵思、寒武纪、比特大陆、鲲云科技与华为的共 16款 芯片/加速卡。
● 解读分析●
AI芯片的深度学习计算能力云端训练主要支持INT8与FP32,云端推理则以标称INT8为主。
云端数据中心/峰值算力(INT8&FP32)
云端/数据中心:主要集中在7-28nm,以12nm与16nm居多。
云端/数据中心 工艺分布统计
云端数据中心/Power vs Computation(峰值、典型功耗/理论峰值算力)
传统TOPS,TFLOPS,TOPS/W等算力与能耗比标称已不能全面反映处理器在深度学习任务中的性能表现。面向不同场景的人工智能算法对芯片提出了不同的要求,如:硬件架构、延迟、吞吐量、能耗、体积、神经网络模型、参数等都是用户方选择AI芯片的重要参考。
AIIA 对于AI芯片的性能,注重于特定场景和硬件测试环境下的指标为衡量,目前已初步形成端+云全方位基准测试方案,目前主要面向推断任务场景,后续推进组会启动训练任务的基准测试评估评测。
获取电子版全文:关注信创产业发展公众号(xc-industry),在后台回复“芯片选型“,获取目录下载链接。
本文来自 人工智能产业发展联盟AIIA,本文观点不代表信创中国立场,若有侵权请联系删除。