以下是英伟达主要GPU型号的算力对照表,基于权威信息整理:
一、核心型号对比
-
A100
-
架构 :Ampere
-
显存 :40GB/80GB HBM2e
-
CUDA核心 :6,912
-
FP32算力 :19.5 TFLOPS
-
应用场景 :深度学习训练、推理、科学计算。
-
-
H100
-
架构 :Hopper
-
显存 :80GB HBM3
-
CUDA核心 :18,432
-
FP32算力 :51 TFLOPS
-
应用场景 :大规模AI模型训练(如GPT-4)、HPC。
-
-
A800 & H800
-
A800 :基于A100架构,显存带宽缩减,适合AI推理。
-
H800 :基于H100架构,显存带宽受限,仍适用于大型AI训练。
-
二、其他关键参数参考
-
HBM3显存带宽 :H100(3.35TB/s)、H800(未明确)。
-
功耗 :H100为700W,A100为250-400W。
-
NVLink支持 :A100支持多GPU互联,H100升级为NVLink 4.0。
三、注意事项
-
以上数据综合自2020-2025年权威发布,实际性能可能受硬件配置、软件优化等因素影响。
-
特殊版本(如中国市场的A800/H800)因出口管制存在显存带宽限制。