MiniMax M2.7「自进化」训练路径:让模型参与自己的成长

今年4月,国产大模型迎来一波开源密集发布潮:智谱GLM-5.1、月之暗面Kimi K2.6、MiniMax M2.7、DeepSeek V4,四家公司在12天内相继放出开源编程模型,SWE-Bench得分全部在56%~59%区间,一时间让开源编程模型的能力上限大幅提升。 但如果仔细看各家的技术路线,MiniMax M2.7走了一条不太一样的路——自进化(Self-Evolution)训练。 传统大模型训练是「人类教模型」,而自进化则让模型深度参与自身训练循环。具体来说,MiniMax让M2.7在训练过程中自主构建记忆系统、编写复杂工具和技能(Skills),并根据实验结果反馈优化自身的学习流程——模型既是学生,也是教学设计的参与者之一。 这听起来有些「玄学」,但实际效果有据可查:M2.7在SWE-Bench Pro上得分56.22%,接近其他三家约58%的水平,差距不大。更值得关注的是它在真实软件工程任务中的端到端表现:完整项目交付、日志分析、Bug排查、代码安全、机器学习任务——这些场景比标准Benchmark更能反映模型的实际可用性。 从行业角度看,自进化训练的探索意义超过分数本身。当模型能力逼近上限,单纯靠扩大数据规模和计算量已难以带来边际收益。让模型参与自身训练循环,本质上是把「如何学习」这件事也从人类工程师转移给模型自己。如果这条路被验证有效,将改变未来基础模型迭代的方式——不只是模型变强,模型也在参与让自己变强的过程。 当然,这条路目前还处于早期验证阶段,能否Scale仍需更多观察。但MiniMax M2.7至少证明了一个关键假设:模型不只是被训练的对象,也可以成为训练过程的设计参与者。这或许才是这条技术路线最值得关注的地方。