解码多样性新突破:ESamp让大模型更敢探索

大语言模型在推理时Scaling的趋势已清晰——测试时计算越多,表现越好。但标准随机采样存在一个根本矛盾:它只能在词汇层面制造变化,语义探索极其有限,模型总在重复自己。 来自arXiv(2604.24927)的新论文提出了Exploratory Sampling(ESamp),试图解决这一痛点。核心思路:训练一个轻量级Distiller网络,学习LLM浅层到深层的隐表示映射。解码时,Distiller以预测误差作为新颖性信号——误差越大,说明模型正处较少探索区域,此时对候选token加权偏移,引导生成向更未知的语义空间延伸。 实验结果显示,在数学、科学、代码推理等benchmark上,ESamp显著提升Pass@k效率;在创意写作任务上,打破了多样性与连贯性的长期trade-off。最坏情况开销不超过5%,优化版仅1.2%,对生产级部署完全可接受。 这项工作的方向性意义更重要:当推理成本持续下降、测试时计算成为常态,如何更智能地利用计算预算,将逐渐比堆模型参数更重要。从应用角度看,这对Agent场景、多步推理及需要生成多种方案的任务尤其有价值。能主动探索而非被动采样的模型,将在长上下文时代占据明显优势。