DeepSeek在最新版本DeepSeek R2中已彻底摆脱英伟达芯片,全面采用华为昇腾910B芯片,但此前部分训练曾依赖英伟达芯片。
DeepSeek R2模型采用1.2万亿参数的混合专家架构(MoE),通过华为昇腾910B芯片集群实现训练与推理,FP16精度下算力达512 PetaFLOPS,芯片利用率82%,性能接近英伟达A100集群的91%。该版本推理成本较GPT-4降低97.4%,输入每百万字符成本仅0.07美元,输出0.27美元。此前,DeepSeek R1的训练曾使用约2000块英伟达H800芯片,部分服务(如R1/V3推理)也基于英伟达H100芯片,但R2的发布标志着其完全转向国产化算力方案。
华为昇腾910B的性能逼近英伟达高端芯片,且910C已进入量产阶段,下一代910D对标H100。DeepSeek的技术路线转向国产芯片,不仅降低了对英伟达的依赖,还推动国产AI基础设施发展,可能颠覆传统AI算力格局。
随着中美科技竞争加剧,DeepSeek的国产化算力转型具有行业示范意义。若后续性能持续优化,类似模式或成中国AI企业主流选择,进一步削弱英伟达在AI芯片市场的主导地位。