百度正式发布文心大模型5.1,基于多维弹性预训练技术,仅以业界同规模模型约6%的预训练成本,达到基础效果领先水平,并登上LMArena搜索榜国内第一、全球第四。 这项技术的核心是Once-for-All弹性训练框架,通过弹性深度(随机跳过Transformer层)、弹性宽度(动态调控MoE专家池)、弹性稀疏度(可变Top-k路由)三个维度,实现了一次预训练生成多种规模模型的能力,将总参数量压缩至文心5.0的约1/3,激活参数压缩至约1/2。 后训练阶段采用分离式全异步强化学习架构,将训练、推理、奖励、智能体循环四大子系统控制面完全解耦,配合FP8低精度算子库和OPD多阶段训练管线,有效解决了跷跷板效应问题,实现了Agent、推理、创作等多维能力的均衡提升。在AIME26数学竞赛评测中,文心5.1得分99.6,仅次于Gemini 3.1 Pro。 文心5.1的意义不仅在于单次训练的效率突破,更在于弹性训练范式本身——用更少资源做更多模型,正在成为大模型竞争的新分水岭。