DeepSeek V3已开源,且采用宽松的MIT许可证,允许开发者自由使用、修改和商用。 其6710亿参数的混合专家(MoE)架构、14.8万亿token的预训练规模,以及3倍于前代的生成速度(60 TPS),使其成为全球性价比最高的开源大模型之一。2025年3月更新的V3-0324版本进一步优化了编程能力,并全面开放权重与代码库。
DeepSeek V3的开源实践体现在三方面:
- 技术开放:模型代码、训练框架(FP8混合精度)及权重均公开,支持本地部署与二次开发。开发者可通过Hugging Face或GitHub获取资源,并适配多种硬件平台(如昇腾、英伟达)。
- 商业友好:MIT许可证取消使用限制,企业可无缝集成至专有软件。例如,京东云、阿里云等已提供一键部署服务,而开源社区涌现大量基于V3的衍生应用(如前端代码生成器)。
- 持续迭代:从初版到V3-0324,模型通过小版本升级保持竞争力。例如,新版本在数学推理和长文本处理上接近Claude 3.7,且凌晨时段API调用费用降至50%。
这一开源策略不仅降低AI应用门槛,更推动全球开发者生态协同创新。若计划采用DeepSeek V3,建议关注官方更新以获取最新优化功能。