[논문리뷰] Prism: Spectral-Aware Block-Sparse AttentionarXiv에 게시된 'Prism: Spectral-Aware Block-Sparse Attention' 논문에 대한 자세한 리뷰입니다.#Review#Block-Sparse Attention#Long-Context LLM#Rotary Positional Embeddings#Spectral Analysis#Attention Efficiency#Pre-filling Acceleration2026년 2월 10일댓글 수 로딩 중
[논문리뷰] Sparser Block-Sparse Attention via Token PermutationarXiv에 게시된 'Sparser Block-Sparse Attention via Token Permutation' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models (LLMs)#Self-Attention#Block-Sparse Attention#Token Permutation#Computational Efficiency#Prefilling#Long Context#Causal Attention2025년 10월 27일댓글 수 로딩 중