[논문리뷰] SpargeAttention2: Trainable Sparse Attention via Hybrid Top-k+Top-p Masking and Distillation Fine-TuningarXiv에 게시된 'SpargeAttention2: Trainable Sparse Attention via Hybrid Top-k+Top-p Masking and Distillation Fine-Tuning' 논문에 대한 자세한 리뷰입니다.#Review#Sparse Attention#Diffusion Models#Video Generation#Hybrid Masking#Distillation Fine-Tuning#Model Acceleration#Top-k#Top-p2026년 2월 19일댓글 수 로딩 중