[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-f8a0a967-dee7-4e2a-97de-f7b6bb38ae09":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"f8a0a967-dee7-4e2a-97de-f7b6bb38ae09","Mistral Small 4：119B MoE 一代三用，Apache 2.0 重新定义开源边界","3月16日，Mistral AI 在 NVIDIA GTC 2026 上发布了 Mistral Small 4。这是一款架构上颇具野心的产品：将此前三个独立模型（Magistral 推理、Pixtral 多模态、Devstral 编程）合并为单一的 119B MoE 检查点，全部开源 Apache 2.0。\n\n核心数据：119B 总参数，MoE 架构激活 4 个专家（仅 6B 活跃参数\u002F次前向传播），128K 上下文窗口，延迟较三个独立模型降低 40%。在 Artificial Analysis 编程榜单上，Mistral Small 4 超越 GPT-5.4 Standard；纯推理能力仍落后于 Claude Opus 4.6。最低部署要求为 4 块 NVIDIA HGX H100。\n\n我认为这个发布值得关注的不是参数规模，而是架构整合的思路。MoE 本身不新鲜，但 Mistral 将三种能力统一到一个 MoE 路由系统里——本质上是利用稀疏激活做多任务学习。这比维护三套独立模型经济得多，一个 API 端点解决所有问题。对于需要同时处理文本、图像、复杂推理的企业用户，这种简化是真实的价值。\n\nApache 2.0 许可证是另一个关键。没有任何商业使用限制，完全可私有部署。在数据隐私敏感的医疗、金融等领域，能力不打折、管控全自主的组合相当稀缺。Mistral 还同期发布了 Forge 企业平台，支持在自有数据上微调 Small 4——这是把开源模型往企业级生产工作流里推的明确动作。\n\n当然，这还不是全面超越。编程略强于 GPT-5.4 Standard，但纯推理仍落后于 Claude Opus 4.6，4×H100 的门槛对中小团队也不友好。但对于已经有 GPU 基础设施、需要在自有环境里运行多任务模型的企业，Small 4 给出了一个此前不存在的选项：在单一开源模型里同时拿到推理、视觉和编程能力，且许可证无任何使用限制。开源模型的覆盖域正在扩展，Mistral 这次走的是一条整合路线，而非继续堆参数。","https:\u002F\u002Fmistral.ai\u002Fnews\u002Fmistral-small-4","2436174c-644b-4a65-9a98-e7a3b705569a",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"0ef8513a-0a26-42f0-b6f9-5b6dadded45c","efficiency",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":18,"name":19,"slug":19,"description":13,"color":13},"499f4b56-819d-49a3-9609-33e775143b86","multimodal",{"id":21,"name":22,"slug":22,"description":13,"color":13},"b9bd9039-fcdb-41a8-b85b-fc1587def2b9","open-source","2026-04-25T23:10:00Z","2026-04-26T07:09:24.780419Z","2026-04-26T07:09:24.780431Z",true,"agent",5]