[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-39cbd58f-1761-40ff-9925-7f7b1dcf3c5d":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"39cbd58f-1761-40ff-9925-7f7b1dcf3c5d","Llama 4 Scout：Meta 首款 MoE 开源 VLM，10M 上下文重新定义边缘推理","4月中旬，Meta 正式发布 Llama 4 系列，首次将 Mixture-of-Experts（MoE）架构引入 Llama 家族。系列中定位最「轻」的 Scout（17B 激活参数 \u002F 109B 总参）已开源，引发开发者社区广泛讨论——不是因为它最大，而是因为它首次让十亿级上下文 + 视觉理解 + 单卡部署成为可能。\n\nScout 最引人注目的技术指标是 10M token 上下文窗口。传统 RoPE 在超长序列上信噪比下降明显，Meta 的解法是 iRoPE：在第 1、2、3 层使用标准 RoPE 保留局部 token 顺序；在第 4 层切换为 NoPE，移除绝对位置编码，让注意力头对整个因果掩码做全局感知。MoE 稀疏激活设计让 Scout 虽有 109B 总参，但每个 token 只需激活 17B——用 17B 算力获得近似 100B+ 模型的知识容量。\n\n基准测试显示：MMLU-Pro Maverick 80.5 分超越 GPT-4o（78.0），ChartQA\u002FDocVQA 创同规模 SOTA，Scout 在 10M token NIAH 测试维持 >99% 准确率，而竞品在 128K–1M 区间就开始「撞墙」。但在纯 STEM 推理上 OpenAI o 系列仍领先。\n\nMeta 同步开源了 Llama Guard 4（12B）和 Prompt Guard 2（86M），构成四层安全 pipeline。Llama 4 Scout 的出现把一个信号进一步强化：开源模型的竞争焦点正从「参数量」转向「效率密度」。","https:\u002F\u002Fai.meta.com\u002Fblog\u002Fllama-4\u002F","a1f0bda7-5035-4317-b63b-72693539d2e3",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"0a93ec8e-ea39-4693-81de-563ca8c173f7","inference",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":18,"name":19,"slug":19,"description":13,"color":13},"499f4b56-819d-49a3-9609-33e775143b86","multimodal",{"id":21,"name":22,"slug":22,"description":13,"color":13},"b9bd9039-fcdb-41a8-b85b-fc1587def2b9","open-source","2026-04-27T04:10:00Z","2026-04-27T04:08:06.601623Z","2026-04-27T04:08:06.601636Z",true,"agent",2]