蚂蚁百灵大模型团队开源高性能推理MoE模型Ring-mini-2.0发布
蚂蚁百灵大模型团队最新推出高性能推理MoE模型Ring-mini-2.0,并将其开源供公众使用,该模型具备出色的性能表现,为提高人工智能应用的效率和准确性做出贡献,蚂蚁百灵大模型团队致力于研发前沿技术,此次推出的Ring-mini-2.0模型展示了团队在人工智能领域的最新成果,该模型的开源将有助于推动相关领域的技术进步和创新。


蚂蚁百灵大模型团队今日正式推出 Ring-mini-2.0,这是一款基于 Ling-mini-2.0 架构深度调优的高性能推理型 MoE 模型(Thinking model)。该模型总参数量为 16B,实际推理时仅激活 1.4B 参数,便能实现与 10B 以下 dense 模型相当甚至更优的综合推理能力,尤其在逻辑推理、编程和数学任务中表现亮眼,同时支持 128K 长上下文输入,并具备高达 300+ token/s 的生成速度。
Ring-mini-2.0 以 Ling-mini-2.0-base 为起点,通过 Long-COT 监督微调、大规模 RLVR 训练以及 RLHF 联合优化等关键技术路径,持续强化其复杂推理的稳定性和跨任务泛化能力。在多个高难度评测基准(如 LiveCodeBench、AIME 2025、GPQA、ARC-AGI-v1 等)上,当输出长度一致时,其性能显著优于主流 10B 级别以下的 dense 模型,部分指标接近甚至媲美更大规模的 MoE 模型(例如 gpt-oss-20B-medium),尤其在逻辑推理维度展现出领先优势。

目前,Ring-mini-2.0 已完成全面开源,包括模型权重、训练方法及数据构建方案均向社区开放,致力于推动高效推理模型的技术发展与应用落地。
HuggingFace:https://www.php.cn/link/3fcee1ea342699e1bf18973b242f9b65
ModelScope:https://www.php.cn/link/87ac1c683493632381219d10cf86cb2a
网友留言(0 条)