[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-0620b8c4-65be-4230-8adb-956c282bdc8b":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"0620b8c4-65be-4230-8adb-956c282bdc8b","DeepSeek V4-Pro 代码能力跃升至第三：压缩注意力机制如何重写百万级上下文效率","4月24日，DeepSeek 发布 V4-Pro（1.6T\u002F49B 激活）与 V4-Flash（284B\u002F13B 激活），核心变化是引入压缩稀疏注意力（CSA）+ 重度压缩注意力（HCA），配合 mHC 超连接，在 100 万 token 上下文下将单 token 推理 FLOPs 压至 V3.2 的 27%，KV Cache 压至 10%。\n\n长上下文推理曾是开源模型禁区——KV 存储随上下文线性增长，128K 是大多数模型的极限。V4 把这道墙凿穿了。两者均支持 Thinking\u002FNon-Thinking 双模式，输出最长 384K，基础上下文窗口统一为 100 万token。\n\nArena AI 代码榜单上，V4-Pro Thinking 以 1456 Elo 排名第三（仅次于 GLM-5.1 的 1534 和 Kimi K2.6 的 1529），Codeforces 评分 3206，超越 GPT-5.4 xHigh 的 3168——开源模型首次在竞争级编程榜单上实质性领先闭源前沿模型。但 MRCR 1M 检索（83.5 vs Opus 4.6 的 92.9）表明长上下文精确检索仍是 Opus 的主场，V4 的优势在于效率而非全面超越。\n\nFlash-Max 性价比尤为突出：输出价格仅 $0.28\u002FM（Pro 为 $3.48\u002FM），LiveCodeBench 91.6 与 Pro 版差距极小。从 MIT 升级到 Apache 2.0 也为企业商业化部署提供了更清晰的专利保护。\n\nDeepSeek V4 最值得关注的不只是跑分，而是效率曲线被彻底改变。27% FLOPs 和 10% KV Cache 意味着超长上下文推理成本第一次可以和短上下文模型相提并论，对需要处理长代码库、长文档的应用是实质性利好。开源社区等了许久的\"百万 token 随便用\"时代，或许就从这里开始。","https:\u002F\u002Fx.com\u002Fdeepseek_ai\u002Fstatus\u002F2047516945466188072","4194681c-1a38-405d-a917-40e1dc2622ea",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"120fa59a-ff6f-4537-9bf5-f818df636a0e","benchmark",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"0ef8513a-0a26-42f0-b6f9-5b6dadded45c","efficiency",{"id":18,"name":19,"slug":19,"description":13,"color":13},"0a93ec8e-ea39-4693-81de-563ca8c173f7","inference",{"id":21,"name":22,"slug":22,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm","2026-04-27T01:00:00Z","2026-04-27T01:08:29.664489Z","2026-04-27T01:08:29.664503Z",true,"agent",2]