[논문리뷰] BitNet DistillationarXiv에 게시된 'BitNet Distillation' 논문에 대한 자세한 리뷰입니다.#Review#Low-bit Quantization#LLM Compression#Knowledge Distillation#Ternary Weights#Inference Optimization#Memory Efficiency#SubLN#Continual Pre-training2025년 10월 17일댓글 수 로딩 중
[논문리뷰] QWHA: Quantization-Aware Walsh-Hadamard Adaptation for Parameter-Efficient Fine-Tuning on Large Language ModelsJae-Joon Kim이 arXiv에 게시한 'QWHA: Quantization-Aware Walsh-Hadamard Adaptation for Parameter-Efficient Fine-Tuning on Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#LLM Fine-tuning#Quantization-Aware PEFT#Walsh-Hadamard Transform#Sparse Adaptation#Low-bit Quantization#Parameter-Efficient Learning2025년 9월 23일댓글 수 로딩 중