OpenBMB 正式发布并开源 MiniCPM4.1-8B,这是业界首个开源的混合推理大语言模型。该模型通过多项系统性创新,实现了在端侧设备上的极致高效运行,并支持深度推理与常规模式之间的一键自由切换。
该模型在 8B 参数量级下,从模型架构、训练数据、训练算法到推理系统四大层面进行深度优化,全面提升了端侧部署的可行性与性能表现。
核心优势
MiniCPM4.1-8B 搭载升级版 InfLLM v2 稀疏注意力技术,在处理 128K 长文本时,每个 token 仅需与不足 5% 的历史 token 进行注意力计算,显著减少计算冗余。原生支持 65,536 token 上下文长度,并可通过 LongRoPE 技术扩展至 131,072 token,满足复杂长文本处理需求。
目前,MiniCPM4.1-8B 已全面开源,代码与模型权重已上线 GitHub、Hugging Face 及魔搭社区,供研究
与应用使用。
?GitHub:https://www./link/10164f723a34e25cd518da38b02af653
?Hugging Face:https://www./link/3ffa944140b77ef7b5e7500eb4ca2fe5
?ModelScope:https://www./link/95b428e98d2b66a8ab324313cfc45300
源码下载地址:点击获取