小米的ai大模型叫Xiaomi MiMo,这款2025年4月30日开源的大模型参数仅7B,却能在数学推理(AIME 24-25)和代码竞赛(LiveCodeBench v5)等复杂任务中超越OpenAI o1-mini和Qwen-32B-Preview,其强化学习能力在同类模型中表现突出,且支持手机芯片端侧部署,适配小米设备生态。
Xiaomi MiMo由小米大模型Core团队开发,聚焦推理能力优化而非单纯追求参数规模。其核心优势在于通过预训练与后训练的联合创新实现高效推理:在预训练阶段,团队合成约200B tokens的富推理语料,经过三阶段25T tokens训练,使模型广泛覆盖数学、逻辑及代码模式;后训练引入Test Difficulty Driven Reward缓解奖励稀疏问题,采用Easy Data Re-Sampling提升训练稳定性,并开发Seamless Rollout系统将强化学习效率加速2.29倍。
该模型已在Hugging Face开源4个版本,覆盖从基础到强化学习的多种形态,技术报告同步公开于GitHub,支持开发者定制优化。不同于传统大模型以参数量取胜,MiMo优先适配移动端场景,例如通过端侧轻量化部署实现隐私保护与个性化服务,已整合至小米手机、汽车、机器人等产品线。
作为小米轻量化AI战略的标杆,MiMo的发布标志着国产模型在推理效率与场景适配上取得突破,未来迭代版本或对标OpenAI o1系列,并推动AI技术在消费级设备的普及应用。