思维链走到尽头?隐式推理新范式LRT让大模型「想得少答得准」

大模型生成思维链时,一个简单问题的推理token可能比答案本身还长——这笔开销该不该花?OpenReview最新论文提出了截然不同的思路:与其压缩显式推理轨迹,不如直接抛弃它,让模型学会「隐式推理」。 这篇来自研究者的论文提出**Latent Reasoning Tuning(LRT)框架**,核心创新是用一个轻量级推理网络替代自回归生成。模型不再逐字输出推理步骤,而是通过单次前向传播生成紧凑的隐式向量表示,直接预测答案。 实验数据很有意思:在数学和域外基准上,LRT不仅超越了一众高效推理方法,还超过了Qwen3混合推理框架——而Qwen3本身就是当前公认的高效推理标杆。 关键发现是:模型完全可以只依赖「碎片化推理路径」给出正确答案,不需要完整的显式思维链。这意味着很多简单问题其实根本不需要让模型「想太多」。 当然,隐式推理也有代价——可解释性几乎归零,debugging会更困难。但对需要极致推理效率的生产场景,这或许是一个值得权衡的选择。 从思维链到隐式推理,这条路会不会成为主流?至少现在看来,「想得少」和「答得准」并非不可兼得。