谷歌浏览器插件
订阅小程序
在清言上使用

Model Tells You What to Discard: Adaptive KV Cache Compression for LLMs

ICLR 2024(2024)

引用 192|浏览87
关键词
Large Language Model,Efficient Inference,Generative Inference,Key-Value Cache
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要