Mistral Medium 3.5:首款合并旗舰模型,77.6% SWE-Bench 进入第一梯队

Mistral AI 于 4 月 29 日发布 Medium 3.5,这是其首款合并旗舰模型——将指令遵循、推理、代码三大能力统一在单一 128B dense 模型中,不再需要维护多套专精模型,部署与路由复杂度大幅降低。 核心技术规格:1280 亿全量激活参数(非 MoE),256K 上下文窗口,自研视觉编码器支持可变分辨率图片输入。推理 effort 可按请求配置——简单问答走快速路径,复杂代码任务切换深度推理模式,同一模型覆盖两类场景。 Benchmark 表现值得关注。SWE-Bench Verified 达到 77.6%,已非常接近 Gemini 3.1 Pro Preview 的 78.8%。对于真实 GitHub issue 修复任务,Medium 3.5 的表现已经能够进入第一梯队。Tau3-Telecom 91.4% 则展示了其领域专项 agent 能力。 对比前代产品:Medium 3.1 是纯文本模型,Magistral 负责推理,Devstral 2 专精代码——三条路并行走了一年,如今合并为一条路。从产品策略看,这是务实的技术收敛:从模型矩阵转向统一底座,用单一可配置模型承接更多场景。 开源策略延续性也值得关注。Medium 3.5 采用修改版 MIT 协议(开放权重,商业可用,营收例外条款),支持自托管(四卡 H100 即可)。.5/7.5 每百万 token 的 API 定价也低于同类竞品。 对开发者而言,这意味着在 GPT-5.5 和 Claude Opus 4.7 之外,多了一个高性价比的开源选择。特别是在需要兼顾推理深度与部署成本的中型团队场景,128B dense 模型的恰好够用属性正在成为新的甜蜜点。