2025年人工智能模型价格战白热化,国内厂商主导低价策略,输入成本普遍压至0.001元/千tokens以下,部分模型免费开放。
自2024年起,全球大模型行业开启价格竞争,国内厂商通过技术迭代与规模化降本,主导了低价策略。例如,DeepSeek-V2以每千tokens输入0.001元、输出0.002元的售价,仅为GPT-4的1/35,而字节跳动豆包输入价格更低至每百万tokens 0.8元(即每千tokens 0.0008元)。百度、阿里、科大讯飞等厂商也纷纷跟进,通过免费开放部分API或推出低价型号,如百度ERNIE Speed免费、通义千问Pro模型降价超50%。海外厂商中,OpenAI GPT-4o-mini定价虽达每千tokens输入0.03元,但部分多模态功能仍具吸引力。
价格战的背后是技术成本优化与市场竞争加剧。一方面,国内模型训练效率提升,算法改进与硬件升级使推理成本显著下降,例如智谱GLM-4系列通过架构优化将价格压至行业低位;另一方面,各厂商通过差异化定价吸引用户,如输入输出分离计费(通义千问Long版输出成本低于输入)、缓存机制节省费用(月之暗面缓存调用量降低95%),以及长上下文模型(Kimi支持128K tokens)以高性价比占领细分市场。用户选择需综合考量需求场景:轻量级任务可优先免费模型(如讯飞星火Lite),高精度需求则倾向Qwen-Max等企业级模型,长文本处理需关注GLM-4等专项优化产品。
随着OpenAI持续降价与国产模型性能追赶,未来价格或进一步下探,中小企业与开发者受益明显,但头部厂商向垂直领域转型可能导致行业分化。建议用户密切跟踪定价动态,合理搭配免费额度与付费方案以降低使用成本。