AI在线 AI在线

CompLLM

CompLLM:无需微调,4倍加速长上下文问答的软压缩新范式

大家好,我是肆〇柒。 今天要介绍的是一项来自 Amazon 与中佛罗里达大学计算机视觉研究中心(Center For Research in Computer Vision, University of Central Florida) 的最新研究成果——CompLLM。 这项工作直面长上下文问答中的核心瓶颈:自注意力机制带来的 O(N²) 计算开销。
10/14/2025 10:03:11 AM
肆零柒
  • 1