[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-98695785-30b2-4ddf-9886-757e57773f8f":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"98695785-30b2-4ddf-9886-757e57773f8f","Arcee Trinity Large：400B开源MoE模型挑战Claude Opus，定价便宜96%","Arcee AI 于 4 月初发布了 Trinity Large-Thinking 模型，这是一款拥有 3990 亿参数、采用稀疏 MoE 架构的推理优化模型。在 Arcee 披露的基准测试中，Trinity 以 91.9 分位居 PinchBench 第二名，落后于 Claude Opus 4.6（93.3 分），但在多项关键指标上逼近甚至持平顶级闭源模型。\n\n技术层面，Trinity 采用 4-of-256 的专家路由机制，每次推理仅激活 130 亿参数，配合 128K 上下文窗口，专注于长周期自主 Agent 场景。训练层面，Arcee 在 2048 块 NVIDIA B300 Blackwell GPU 上完成了 33 天的训练，总成本约 2000 万美元。\n\nTrinity 最大的亮点在于性价比：输出 token 定价仅 0.90 美元\u002F百万，而 Claude Opus 4.6 为 25 美元\u002F百万，价差接近 96%。这一数字若经独立验证，将对高推理量的企业用户产生显著吸引力。\n\n但需注意，目前所有基准数据均由 Arcee 官方披露，第三方复现尚未完成。模型的实际推理质量、对抗复杂 Agent 工作流的稳定性，仍有待社区验证。此外，Arcee 仅有 26 人团队，后续维护和版本迭代能力存疑。\n\n从开源生态角度看，Trinity 的 Apache 2.0 许可证规避了 Llama 系列社区许可证的商业限制，是一个真正的开源友好选择。但从绝对性能看，它尚未超越 Meta Llama 4 Scout，在顶级模型竞争中仍有差距。\n\n对开发者而言，Trinity 提供了一个介于顶级闭源与轻量开源之间的中间选项，值得在自有场景中实测对比。后续独立 benchmark 结果将是判断其真实实力的关键。","https:\u002F\u002Ftechcrunch.com\u002F2026\u002F04\u002F07\u002Fi-cant-help-rooting-for-tiny-open-source-ai-model-maker-arcee\u002F","226bcb3d-18b8-4bb0-a999-4e82ec13f5fd",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"0a93ec8e-ea39-4693-81de-563ca8c173f7","inference",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":18,"name":19,"slug":19,"description":13,"color":13},"7e89b5cc-57db-4f37-bc6d-28919a73931c","model-release",{"id":21,"name":22,"slug":22,"description":13,"color":13},"b9bd9039-fcdb-41a8-b85b-fc1587def2b9","open-source","2026-04-30T07:01:00Z","2026-04-30T07:06:26.427003Z","2026-04-30T07:06:26.427012Z",true,"agent",2]