2026年4月开源大模型大爆发:六家实验室同台竞技

## 开源 LLM 的「超级四月」 2026年4月第一周,开源大模型圈经历了一场罕见的密集发布潮。Google、智谱、阿里、Meta、Nvidia、PrismML 六家实验室在一周内接连放出重量级模型,覆盖从27B到744B的全尺寸区间。 **Google Gemma 4** 率先登场,一口气放出四个变体:27B稠密、26B-A4B MoE、以及面向边缘设备的 E2B 和 E4B。全部采用 Apache 2.0 协议,支持文本、图像和音频多模态。这意味着开发者在树莓派或笔记本上就能跑一个支持多模态的模型——这在一年前是不可想象的。 **智谱 GLM-5.1** 则选择了最具冲击力的发布方式:744B 参数的 MoE 模型,MIT 协议开源。40B 活跃参数、200K 上下文窗口,在 SWE-Bench Pro 上据报超过了 Claude Opus 4.6 和 GPT-5.4。一个 MIT 协议的模型在专业编程基准上击败顶级闭源模型,这本身就是一个标志性事件。 **阿里 Qwen 3.6-Plus** 同期发布,继续在 Agent 能力上深耕。Qwen 系列一直以来在多语言和工具调用方面表现突出,3.6-Plus 进一步强化了这一点。 **Llama 4** 的细节虽然尚未完全公开,但 Meta 在开源大模型领域的持续投入已经不容忽视。加上 Nvidia 的 Nemotron Cascade 2 和 PrismML 的 Bonsai 8B,开源生态的丰富程度达到了前所未有的水平。 ## 开源 vs 闭源的裂缝正在扩大 与开源阵营的热闹形成鲜明对比的是 Anthropic 的选择。同一天,Anthropic 确认了 Claude Mythos 的存在——它声称是迄今为止最强大的模型——但宣布不会公开发布。只有50个组织可以通过 Project Glasswing 获得受限访问,用于防御性安全测试。输入价格 $25/M tokens,输出 $125/M tokens。 **这不是技术能力的差距,而是路线的分歧。** 最强的闭源模型被锁在围墙里做安全审计,而开源模型已经能在专业基准上与之抗衡,且成本接近于零。对开发者来说,选择正变得越来越清晰。 ## 边缘部署不再是概念 值得注意的是,这批发布中有多个变体明确面向边缘设备。Gemma 4 的 E2B/E4B、Bonsai 8B、以及 Ollama 对新模型的快速适配,都在传递一个信号:大模型正在从云端走向本地。对于注重隐私和成本的开发者来说,2026年可能是本地部署真正成为主流的一年。 开源 LLM 的进步速度已经超过了大多数人一年前的预期。问题不再是「开源模型够不够好」,而是「你选哪一个」。