长上下文推理是 LLMs 的核心竞争力之一,但 KV 缓存的内存开销随序列长度线性增长,成为推理效率的主要瓶颈。现有 KV 缓存剪枝方法普遍采用跨层均匀剪枝策略,隐含假设所有层对模型性能的贡献相同。然而,Transformer 各层对剪枝的敏感性存在显著差异。 ## 均匀剪枝,一个过于乐观的假设 大多数现有方法对所有 Transformer 层应用相同的剪枝比例,隐含假设是:各层对模型输出的贡献是均等的。 arXiv 4 月 27 日发表的论文 DepthKV(Layer-Dependent KV Cache Pruning for Long-Context LLM Inference)戳破了这个假设。研究者发现,Transformer 各层对缓存剪枝的敏感性差异巨大——有些层对丢 token 很迟钝,有些层则高度敏感。均匀剪枝要么保守到无效,要么激进到损伤模型质量。 ## DepthKV:按层敏感性分配 KV 预算 DepthKV 的核心思路是不再使用固定全局剪枝率,而是两步走: 1. 测量各层对剪枝的敏感性:通过消融实验量化每层在丢弃不同比例 KV 后对下游任务性能的影响; 2. 基于敏感性分配预算:将固定的全局 KV 预算按层分配——敏感层多保留,不敏感层多剪掉。 实验覆盖多个模型和任务,在相同全局剪枝率下,DepthKV 始终优于均匀剪枝。这说明层间预算的自适应分配比单纯提高剪枝率更有效。 ## 对行业的启示 这个工作的意义不只是又一篇优化论文。背后有一个更大的趋势:随着 100 万 token 上下文成为头部模型的标配,KV 缓存管理已从性能调优变成能不能跑起来的前提条件。 Google 有 TurboQuant 将 KV 缓存压到 3-bit(精度无损),DeepSeek 有稀疏注意力将长上下文推理成本砍半,现在 DepthKV 又从剪枝分配层面给出了新解法。几条技术路线正在收敛——2026 年的 LLM 推理效率战争,才刚开始。 对开发者而言,DepthKV 的思路(识别层敏感性,按需分配资源)也可以跳出 KV 缓存,延伸到激活缓存、注意力计算等更多显存瓶颈场景。