2026年5月11日,北大研究团队在arXiv发布MISA论文,将MoE路由机制引入稀疏注意力,解决了当前稀疏注意力方案(如DeepSeek DSA)在长上下文场景下indexer计算成为瓶颈的问题。 MISA将indexer heads视为专家池,引入轻量级路由器基于块级统计信息动态选择少量活跃heads执行token级评分,而非每次让所有heads处理全部前缀token。实验数据显示,在仅使用8个活跃heads(DeepSeek-V3.2)和4个(GLM-5)的情况下,MISA即可在LongBench上与Dense DSA Indexer表现持平,同时推理效率提升4-8倍。该方法无需额外训练,可直接作为DSA替代方案部署。 稀疏注意力是LLM长上下文推理优化的重要方向,MISA的价值在于既保留下原始indexer池的多样性,又显著降低了计算成本。随着LLM上下文窗口不断增长,这类将MoE路由思想融合进注意力机制的技术路线,正成为提升推理效率的新趋势。