DeepSeek需要显卡算力主要基于以下原因:
-
大模型训练需求
DeepSeek的大模型(如V3)参数量高达671B,训练需海量算力支持。例如,使用2048张英伟达A800显卡集群进行2个月预训练,仅耗时557.6万美元。这种计算密集型任务对GPU性能和数量有极高要求。
-
算力平权与普及化
通过算法优化和硬件适配,DeepSeek实现了低成本训练(如单卡成本下降),使中小企业也能部署AI应用。但这一现象加速了AI应用的普及,导致推理计算需求激增,间接推高了对GPU的长期需求。
-
智算中心资源升级
大模型训练推动智算中心升级高性能计算节点、分布式存储和网络系统,需大规模部署AI芯片(如GPU、TPU)。DeepSeek的技术路线促使智算中心优化资源调度,提升GPU利用率。
-
AI应用场景扩展
DeepSeek模型能力提升后,用户从“偶尔”使用转向“深度依赖”,处理复杂任务的数据量和任务复杂度呈指数级增长。例如,自然语言处理、图像识别等应用场景的普及,进一步加剧了算力需求。
DeepSeek对显卡算力的依赖既源于大模型训练的硬性需求,也受到AI应用普及和智算中心升级的推动。