Paper
Hub
搜索
Toggle language
Junlin Lv
~Junlin_Lv1
2
论文总数
2.0
年均投稿
6.1
平均评分
接收情况
1
/
2
会议分布
NeurIPS
1
ICLR
1
发表论文 (2 篇)
2025
2 篇
6.4
4
Ada-KV: Optimizing KV Cache Eviction by Adaptive Budget Allocation for Efficient LLM Inference
NeurIPS 2025
Poster
5.8
4
Identify Critical KV Cache in LLM Inference from an Output Perturbation Perspective
ICLR 2025
Rejected
合作者 (4)
SZ
S Kevin Zhou
2 篇
XX
Xike Xie
2 篇
YF
Yuan Feng
2 篇
YC
Yukun Cao
2 篇