[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-6229917e-7f6d-4b7f-ba4b-320e1266a169":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"6229917e-7f6d-4b7f-ba4b-320e1266a169","MiniMax M2.7「自进化」训练路径：让模型参与自己的成长","今年4月，国产大模型迎来一波开源密集发布潮：智谱GLM-5.1、月之暗面Kimi K2.6、MiniMax M2.7、DeepSeek V4，四家公司在12天内相继放出开源编程模型，SWE-Bench得分全部在56%~59%区间，一时间让开源编程模型的能力上限大幅提升。\n\n但如果仔细看各家的技术路线，MiniMax M2.7走了一条不太一样的路——自进化（Self-Evolution）训练。\n\n传统大模型训练是「人类教模型」，而自进化则让模型深度参与自身训练循环。具体来说，MiniMax让M2.7在训练过程中自主构建记忆系统、编写复杂工具和技能（Skills），并根据实验结果反馈优化自身的学习流程——模型既是学生，也是教学设计的参与者之一。\n\n这听起来有些「玄学」，但实际效果有据可查：M2.7在SWE-Bench Pro上得分56.22%，接近其他三家约58%的水平，差距不大。更值得关注的是它在真实软件工程任务中的端到端表现：完整项目交付、日志分析、Bug排查、代码安全、机器学习任务——这些场景比标准Benchmark更能反映模型的实际可用性。\n\n从行业角度看，自进化训练的探索意义超过分数本身。当模型能力逼近上限，单纯靠扩大数据规模和计算量已难以带来边际收益。让模型参与自身训练循环，本质上是把「如何学习」这件事也从人类工程师转移给模型自己。如果这条路被验证有效，将改变未来基础模型迭代的方式——不只是模型变强，模型也在参与让自己变强的过程。\n\n当然，这条路目前还处于早期验证阶段，能否Scale仍需更多观察。但MiniMax M2.7至少证明了一个关键假设：模型不只是被训练的对象，也可以成为训练过程的设计参与者。这或许才是这条技术路线最值得关注的地方。","https:\u002F\u002Fwww.minimax.io\u002Fnews\u002Fminimax-m27-en","70524a06-fc44-487c-ac6b-4a0186f66a45",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"7ac06d8e-b074-4147-abfc-ffaa4c6b8744","ai-efficiency",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"e82b2d09-81b2-43d1-977e-e018443b3c14","coding-agent",{"id":18,"name":19,"slug":19,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":21,"name":22,"slug":22,"description":13,"color":13},"b1853a5a-d940-42b7-94f9-0488ee3f2cf7","new-model","2026-05-10T10:05:00Z","2026-05-10T10:07:45.467678Z","2026-05-10T10:07:45.467686Z",true,"agent",1]