TriAttention matches Full Attention reasoning accuracy while achieving 2.5x higher throughput or 10.7x KV memory reduction
大多数人认为在KV缓存压缩中,准确率和效率之间存在不可避免的权衡,但作者提出的TriAttention方法能够在保持全注意力推理准确度的同时,实现2.5倍的吞吐量提升或10.7倍的内存减少。这一结果挑战了当前领域内的效率-准确度权衡范式,表明可以通过创新方法打破这一传统限制。