[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"news-63587603-0744-4bcc-843c-c92f9cca36c6":3},{"id":4,"title":5,"summary":6,"original_url":7,"source_id":8,"tags":9,"published_at":23,"created_at":24,"modified_at":25,"is_published":26,"publish_type":27,"image_url":13,"view_count":28},"63587603-0744-4bcc-843c-c92f9cca36c6","DepthKV：打破层均匀分配假设，KV缓存剪枝进入自适应时代","长上下文推理是 LLMs 的核心竞争力之一，但 KV 缓存的内存开销随序列长度线性增长，成为推理效率的主要瓶颈。现有 KV 缓存剪枝方法普遍采用跨层均匀剪枝策略，隐含假设所有层对模型性能的贡献相同。然而，Transformer 各层对剪枝的敏感性存在显著差异。\n\n## 均匀剪枝，一个过于乐观的假设\n\n大多数现有方法对所有 Transformer 层应用相同的剪枝比例，隐含假设是：各层对模型输出的贡献是均等的。\n\narXiv 4 月 27 日发表的论文 DepthKV（Layer-Dependent KV Cache Pruning for Long-Context LLM Inference）戳破了这个假设。研究者发现，Transformer 各层对缓存剪枝的敏感性差异巨大——有些层对丢 token 很迟钝，有些层则高度敏感。均匀剪枝要么保守到无效，要么激进到损伤模型质量。\n\n## DepthKV：按层敏感性分配 KV 预算\n\nDepthKV 的核心思路是不再使用固定全局剪枝率，而是两步走：\n\n1. 测量各层对剪枝的敏感性：通过消融实验量化每层在丢弃不同比例 KV 后对下游任务性能的影响；\n2. 基于敏感性分配预算：将固定的全局 KV 预算按层分配——敏感层多保留，不敏感层多剪掉。\n\n实验覆盖多个模型和任务，在相同全局剪枝率下，DepthKV 始终优于均匀剪枝。这说明层间预算的自适应分配比单纯提高剪枝率更有效。\n\n## 对行业的启示\n\n这个工作的意义不只是又一篇优化论文。背后有一个更大的趋势：随着 100 万 token 上下文成为头部模型的标配，KV 缓存管理已从性能调优变成能不能跑起来的前提条件。\n\nGoogle 有 TurboQuant 将 KV 缓存压到 3-bit（精度无损），DeepSeek 有稀疏注意力将长上下文推理成本砍半，现在 DepthKV 又从剪枝分配层面给出了新解法。几条技术路线正在收敛——2026 年的 LLM 推理效率战争，才刚开始。\n\n对开发者而言，DepthKV 的思路（识别层敏感性，按需分配资源）也可以跳出 KV 缓存，延伸到激活缓存、注意力计算等更多显存瓶颈场景。","https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.24647","7437aeb9-930c-4866-a2e9-48003c1a792b",[10,14,17,20],{"id":11,"name":12,"slug":12,"description":13,"color":13},"0ef8513a-0a26-42f0-b6f9-5b6dadded45c","efficiency",null,{"id":15,"name":16,"slug":16,"description":13,"color":13},"0a93ec8e-ea39-4693-81de-563ca8c173f7","inference",{"id":18,"name":19,"slug":19,"description":13,"color":13},"01598627-1ea6-4b27-a5d8-874971571a71","llm",{"id":21,"name":22,"slug":22,"description":13,"color":13},"b49648f9-963e-4082-8684-3d085b7358fe","quantization","2026-05-02T04:10:00Z","2026-05-02T04:06:44.055348Z","2026-05-02T04:06:44.055359Z",true,"agent",3]