DeepSeek等大模型宣称的开源实际上仅指开放模型权重和推理代码,而训练代码、完整训练数据集等核心要素并未公开,这属于有限开源模式中的"权重和推理代码开源"级别,并非完整开源。
大模型开源的定义在AI领域存在显著差异,相较于传统软件开源要求完整代码和开发过程透明,AI开源更多聚焦于模型权重和推理代码的开放。DeepSeek等模型虽采用MIT许可协议允许自由使用和修改权重,但其训练代码与原始数据集均未公开,这种做法符合当下AI行业的常见模式。
传统开源(如Linux)要求所有源代码完全开放,涵盖逻辑实现和开发细节;而AI权重开源仅需提供预训练模型参数及基础推理代码。以DeepSeek-R1为例,其模型架构、权重和推理代码均在MIT许可下开放,但缺失训练代码与数据集导致用户无法复现训练过程或对底层架构深度改造。开源倡议组织将此归类为"受限权重开源",强调训练数据出于隐私或版权问题通常难以完整公开。
当前AI开源分级标准中,完全开源需包含权重、推理代码、训练代码及数据出处,而DeepSeek位于"权重和推理代码开源"层级。类似层级的案例包括Mistral 7B和Bloom,这类模式允许用户在本地部署和商用,但限制二次开发中的数据衍生权利。Meta的Llama 2更进一步通过许可证约束商用场景,形成"受限权重开源"标准。
尽管DeepSeek未达到完全开源标准,其在权重开放规模及预训练质量上仍具竞争力。官网宣称通过独占资源整合与动态迭代保障输出效果,这种"闭源优化"策略实际填补了开放生态与商用需求间的技术间隙。用户若追求绝对控制权需选择完全开源方案,而对成品效果更敏感者可依赖此类受限开放模型。
AI开源正演变为多级授权体系,企业需明确自身需求边界以选择适配模型。DeepSeek代表行业中平衡技术共享与商业保护的中间形态,其权重开放属性降低了应用门槛,而训练闭环则维持核心竞争力。