RED outperforms eight competitive baselines, achieving performance gains of up to 19.0% while reducing token consumption by 37.7% ~ 70.4%
大多数研究者认为要提升推理模型性能,需要增加计算资源和推理步骤。作者提出的RED框架却表明,通过抑制错误森林的生长和修剪后续推理,可以在大幅减少计算资源消耗的同时获得更好的性能,这一结论挑战了资源投入与性能正相关的基本假设。