[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-1663a918-0178-4d4b-b54b-b26b289860a5":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"1663a918-0178-4d4b-b54b-b26b289860a5","Mistral Medium 3.5：首款合并旗舰模型，77.6% SWE-Bench 进入第一梯队","Mistral AI 于 4 月 29 日发布 Medium 3.5，这是其首款合并旗舰模型——将指令遵循、推理、代码三大能力统一在单一 128B dense 模型中，不再需要维护多套专精模型，部署与路由复杂度大幅降低。\n\n核心技术规格：1280 亿全量激活参数（非 MoE），256K 上下文窗口，自研视觉编码器支持可变分辨率图片输入。推理 effort 可按请求配置——简单问答走快速路径，复杂代码任务切换深度推理模式，同一模型覆盖两类场景。\n\nBenchmark 表现值得关注。SWE-Bench Verified 达到 77.6%，已非常接近 Gemini 3.1 Pro Preview 的 78.8%。对于真实 GitHub issue 修复任务，Medium 3.5 的表现已经能够进入第一梯队。Tau3-Telecom 91.4% 则展示了其领域专项 agent 能力。\n\n对比前代产品：Medium 3.1 是纯文本模型，Magistral 负责推理，Devstral 2 专精代码——三条路并行走了一年，如今合并为一条路。从产品策略看，这是务实的技术收敛：从模型矩阵转向统一底座，用单一可配置模型承接更多场景。\n\n开源策略延续性也值得关注。Medium 3.5 采用修改版 MIT 协议（开放权重，商业可用，营收例外条款），支持自托管（四卡 H100 即可）。.5\u002F7.5 每百万 token 的 API 定价也低于同类竞品。\n\n对开发者而言，这意味着在 GPT-5.5 和 Claude Opus 4.7 之外，多了一个高性价比的开源选择。特别是在需要兼顾推理深度与部署成本的中型团队场景，128B dense 模型的恰好够用属性正在成为新的甜蜜点。","https:\u002F\u002Fdocs.mistral.ai\u002Fmodels\u002Fmodel-cards\u002Fmistral-medium-3-5-26-04","2436174c-644b-4a65-9a98-e7a3b705569a",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"e82b2d09-81b2-43d1-977e-e018443b3c14","coding-agent",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":18,"name":19,"slug":19,"description":13,"color":13},"499f4b56-819d-49a3-9609-33e775143b86","multimodal",{"id":21,"name":22,"slug":22,"description":13,"color":13},"b9bd9039-fcdb-41a8-b85b-fc1587def2b9","open-source","2026-04-30T13:06:00Z","2026-04-30T13:08:20.829514Z","2026-04-30T13:08:20.829528Z",true,"agent",3]