[논문리뷰] ShadowPEFT: Shadow Network for Parameter-Efficient Fine-TuningarXiv에 게시된 'ShadowPEFT: Shadow Network for Parameter-Efficient Fine-Tuning' 논문에 대한 자세한 리뷰입니다.#Review#Parameter-Efficient Fine-Tuning#Shadow Network#Large Language Models#Modular Deployment#Edge Computing2026년 4월 21일댓글 수 로딩 중
[논문리뷰] SciLT: Long-Tailed Classification in Scientific Image DomainsBing Su이 arXiv에 게시한 'SciLT: Long-Tailed Classification in Scientific Image Domains' 논문에 대한 자세한 리뷰입니다.#Review#Long-Tailed Recognition#Scientific Image Domain#Foundation Models#Parameter-Efficient Fine-Tuning#Feature Fusion#Domain Shift#Representation Learning2026년 4월 6일댓글 수 로딩 중
[논문리뷰] Scaling DoRA: High-Rank Adaptation via Factored Norms and Fused Kernelsalexazh이 arXiv에 게시한 'Scaling DoRA: High-Rank Adaptation via Factored Norms and Fused Kernels' 논문에 대한 자세한 리뷰입니다.#Review#DoRA#Low-Rank Adaptation#Parameter-Efficient Fine-Tuning#Fused Kernels#Memory Optimization#Performance Scaling#Triton2026년 3월 23일댓글 수 로딩 중
[논문리뷰] OmniOCR: Generalist OCR for Ethnic Minority LanguagesarXiv에 게시된 'OmniOCR: Generalist OCR for Ethnic Minority Languages' 논문에 대한 자세한 리뷰입니다.#Review#OCR#Ethnic Minority Languages#Low-Resource#Dynamic LoRA#Parameter-Efficient Fine-Tuning#Multimodal Models#Sparsity Regularization2026년 2월 24일댓글 수 로딩 중
[논문리뷰] Fed-SE: Federated Self-Evolution for Privacy-Constrained Multi-Environment LLM AgentsXiaodong Gu이 arXiv에 게시한 'Fed-SE: Federated Self-Evolution for Privacy-Constrained Multi-Environment LLM Agents' 논문에 대한 자세한 리뷰입니다.#Review#Federated Learning (FL)#LLM Agents#Self-Evolution#Privacy-Preserving#Multi-Environment#Parameter-Efficient Fine-Tuning#Low-Rank Aggregation#Reinforcement Learning2025년 12월 11일댓글 수 로딩 중
[논문리뷰] The Path Not Taken: RLVR Provably Learns Off the PrincipalsarXiv에 게시된 'The Path Not Taken: RLVR Provably Learns Off the Principals' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Parameter-Efficient Fine-Tuning#Optimization Bias#Spectral Geometry#Model Sparsity#LoRA2025년 11월 11일댓글 수 로딩 중
[논문리뷰] KORE: Enhancing Knowledge Injection for Large Multimodal Models via Knowledge-Oriented Augmentations and ConstraintsJinhe Bi이 arXiv에 게시한 'KORE: Enhancing Knowledge Injection for Large Multimodal Models via Knowledge-Oriented Augmentations and Constraints' 논문에 대한 자세한 리뷰입니다.#Review#Knowledge Injection#Large Multimodal Models#Catastrophic Forgetting#Data Augmentation#Parameter-Efficient Fine-Tuning#Null Space#Continual Learning2025년 10월 23일댓글 수 로딩 중
[논문리뷰] LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World ScenariosBing Su이 arXiv에 게시한 'LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World Scenarios' 논문에 대한 자세한 리뷰입니다.#Review#Long-tailed Learning#Semi-Supervised Learning#Parameter-Efficient Fine-Tuning#Foundation Models#Open-World Scenarios#OOD Detection#Confidence Calibration2025년 9월 15일댓글 수 로딩 중
[논문리뷰] CRISP: Persistent Concept Unlearning via Sparse AutoencodersYonatan Belinkov이 arXiv에 게시한 'CRISP: Persistent Concept Unlearning via Sparse Autoencoders' 논문에 대한 자세한 리뷰입니다.#Review#Concept Unlearning#Sparse Autoencoders (SAEs)#LLMs#Parameter-Efficient Fine-Tuning#Model Interpretability#Safety-Critical AI#Feature Suppression#WMDP Benchmark2025년 8월 25일댓글 수 로딩 중