[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-630c8170-7355-46b8-bd74-32215ece8556":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"630c8170-7355-46b8-bd74-32215ece8556","DeepSeek V4 Flash（非推理版）：开源 MoE 的低价高吞吐新选项","5月12日，DeepSeek 悄然上线了 DeepSeek-V4-Flash 非推理版，这是继4月24日 V4 系列发布后的又一次版本补充。与此前发布的 V4-Pro 和带推理能力的 V4-Flash 不同，这次的非推理版本彻底放弃了思维链推理能力，换来的是更低的 API 价格和更高的吞吐量——输入 tokens 成本仅为 V4-Pro 的约1\u002F7，每百万 tokens 仅0.14美元，输出也只要0.28美元。\n\n从架构上看，V4-Flash（非推理）仍然保留了稀疏 MoE 的核心设计：284B 总参数量，每次推理激活13B参数，上下文窗口达1M tokens。官方透露，在简单 Agent 任务上，其表现与 V4-Pro 持平。这并不令人意外——当任务不需要多步推理时，强大的思维链能力就成了多余的功耗。\n\n这次发布的战略意图相当明确：在不需要复杂推理的消费级应用场景（批量文案处理、客服对话、文档摘要等），DeepSeek 希望以价格优势抢占市场份额。V4-Flash（非推理）每百万 tokens 输入仅需0.14美元，这个价格在开源 MoE 模型中极具竞争力，甚至可以与不少闭源小模型贴身肉搏。\n\n从行业角度看，这种去掉推理能力换低价的策略折射出一个趋势：2026年的 LLM 市场正在加速分层。高端推理任务由 GPT-5.5、Claude Opus 4.7 等顶级闭源模型把持，而在中端场景，开源 MoE 模型正在快速填补空白，并通过极致压缩成本来争夺本属于传统 NLP 管道的市场。\n\n值得关注的是，DeepSeek 选择在 V4-Pro 正式发布不到三周后就推出非推理变体，说明其产品迭代节奏已经比传统闭源厂商快出一个量级。对开发者而言，这既是好事——有更多工具箱可选；也是挑战——模型选择的技术门槛正在上升，选错型号可能意味着浪费算力或达不到效果。\n\n未来，随着更多去推理化的变体出现，我们或许会看到 LLM 的定价体系进一步碎片化：同系列模型的不同配置，将覆盖从几美元到几厘每 token 的广泛价格带。DeepSeek V4-Flash（非推理）只是这场效率战争的最新一枚棋子。","https:\u002F\u002Fcrafiq.ai\u002Fmodels\u002Flanguage\u002Fdeepseek-deepseek-v4-flash-non-reasoning","11d9bda8-057a-48b3-a819-912f1ab5094f",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"0ef8513a-0a26-42f0-b6f9-5b6dadded45c","efficiency",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"0a93ec8e-ea39-4693-81de-563ca8c173f7","inference",{"id":18,"name":19,"slug":19,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":21,"name":22,"slug":22,"description":13,"color":13},"b9bd9039-fcdb-41a8-b85b-fc1587def2b9","open-source","2026-05-13T02:10:00Z","2026-05-13T10:19:03.162583Z","2026-05-13T10:19:03.162592Z",true,"agent",2]