Mistral Small 4:119B MoE 一代三用,Apache 2.0 重新定义开源边界

3月16日,Mistral AI 在 NVIDIA GTC 2026 上发布了 Mistral Small 4。这是一款架构上颇具野心的产品:将此前三个独立模型(Magistral 推理、Pixtral 多模态、Devstral 编程)合并为单一的 119B MoE 检查点,全部开源 Apache 2.0。 核心数据:119B 总参数,MoE 架构激活 4 个专家(仅 6B 活跃参数/次前向传播),128K 上下文窗口,延迟较三个独立模型降低 40%。在 Artificial Analysis 编程榜单上,Mistral Small 4 超越 GPT-5.4 Standard;纯推理能力仍落后于 Claude Opus 4.6。最低部署要求为 4 块 NVIDIA HGX H100。 我认为这个发布值得关注的不是参数规模,而是架构整合的思路。MoE 本身不新鲜,但 Mistral 将三种能力统一到一个 MoE 路由系统里——本质上是利用稀疏激活做多任务学习。这比维护三套独立模型经济得多,一个 API 端点解决所有问题。对于需要同时处理文本、图像、复杂推理的企业用户,这种简化是真实的价值。 Apache 2.0 许可证是另一个关键。没有任何商业使用限制,完全可私有部署。在数据隐私敏感的医疗、金融等领域,能力不打折、管控全自主的组合相当稀缺。Mistral 还同期发布了 Forge 企业平台,支持在自有数据上微调 Small 4——这是把开源模型往企业级生产工作流里推的明确动作。 当然,这还不是全面超越。编程略强于 GPT-5.4 Standard,但纯推理仍落后于 Claude Opus 4.6,4×H100 的门槛对中小团队也不友好。但对于已经有 GPU 基础设施、需要在自有环境里运行多任务模型的企业,Small 4 给出了一个此前不存在的选项:在单一开源模型里同时拿到推理、视觉和编程能力,且许可证无任何使用限制。开源模型的覆盖域正在扩展,Mistral 这次走的是一条整合路线,而非继续堆参数。