[논문리뷰] Unifying Group-Relative and Self-Distillation Policy Optimization via Sample Routing저자들은 샘플의 학습 상태에 따라 적절한 최적화 방식을 할당하는 SRPO (Sample-Routed Policy Optimization)를 제안합니다 . SRPO는 정답 샘플에 대해서는 GRPO의 보상 정렬(reward-aligned) 강화를 적용하고, 오류 샘플 중 피드백 정보가 가용한 경우에는 SDPO의 정밀한 logit 수준 교정을 적용합니다.#Review#RLVR#GRPO#SDPO#Sample Routing#Policy Optimization#Self-Distillation2026년 4월 6일댓글 수 로딩 중
[논문리뷰] Self-Distilled RLVRNaibin Gu이 arXiv에 게시한 'Self-Distilled RLVR' 논문에 대한 자세한 리뷰입니다.#Review#LLM Post-training#Reinforcement Learning#Self-Distillation#Information Asymmetry#Credit Assignment#RLVR2026년 4월 5일댓글 수 로딩 중
[논문리뷰] Embarrassingly Simple Self-Distillation Improves Code GenerationRonan Collobert이 arXiv에 게시한 'Embarrassingly Simple Self-Distillation Improves Code Generation' 논문에 대한 자세한 리뷰입니다.#Review#Self-Distillation#Code Generation#Large Language Models#Precision-Exploration Conflict#Supervised Fine-Tuning#Temperature Scaling#Truncation2026년 4월 1일댓글 수 로딩 중
[논문리뷰] Reading, Not Thinking: Understanding and Bridging the Modality Gap When Text Becomes Pixels in Multimodal LLMsarXiv에 게시된 'Reading, Not Thinking: Understanding and Bridging the Modality Gap When Text Becomes Pixels in Multimodal LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLMs#Modality Gap#Visual Text Understanding#Error Analysis#Self-Distillation#Text-to-Image Conversion#Reasoning Collapse2026년 3월 10일댓글 수 로딩 중
[논문리뷰] On-Policy Self-Distillation for Reasoning CompressionZhipeng Wang이 arXiv에 게시한 'On-Policy Self-Distillation for Reasoning Compression' 논문에 대한 자세한 리뷰입니다.#Review#Reasoning Compression#Self-Distillation#On-Policy Learning#Large Language Models#Mathematical Reasoning#Knowledge Distillation#Efficient Inference2026년 3월 5일댓글 수 로딩 중
[논문리뷰] LaSER: Internalizing Explicit Reasoning into Latent Space for Dense RetrievalarXiv에 게시된 'LaSER: Internalizing Explicit Reasoning into Latent Space for Dense Retrieval' 논문에 대한 자세한 리뷰입니다.#Review#Dense Retrieval#LLMs#Reasoning#Knowledge Distillation#Latent Space#Self-Distillation#Chain-of-Thought2026년 3월 2일댓글 수 로딩 중
[논문리뷰] Internalizing Meta-Experience into Memory for Guided Reinforcement Learning in Large Language ModelsZhen Fang이 arXiv에 게시한 'Internalizing Meta-Experience into Memory for Guided Reinforcement Learning in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Meta-Learning#Error Attribution#Knowledge Internalization#Self-Distillation#Verifiable Rewards2026년 2월 11일댓글 수 로딩 중
[논문리뷰] daVinci-Agency: Unlocking Long-Horizon Agency Data-EfficientlyarXiv에 게시된 'daVinci-Agency: Unlocking Long-Horizon Agency Data-Efficiently' 논문에 대한 자세한 리뷰입니다.#Review#Long-Horizon Agency#Data Synthesis#Pull Request Chains#Software Evolution#LLM Training#Agentic AI#Self-Distillation#Code Generation2026년 2월 3일댓글 수 로딩 중
[논문리뷰] THINKSAFE: Self-Generated Safety Alignment for Reasoning ModelsMinki Kang이 arXiv에 게시한 'THINKSAFE: Self-Generated Safety Alignment for Reasoning Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Reasoning Models#Safety Alignment#Self-Distillation#Refusal Steering#Distributional Shift#Chain-of-Thought#Reinforcement Learning2026년 2월 1일댓글 수 로딩 중
[논문리뷰] Reinforcement Learning via Self-DistillationarXiv에 게시된 'Reinforcement Learning via Self-Distillation' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Self-Distillation#Large Language Models (LLMs)#Rich Feedback#Credit Assignment#Policy Optimization#RLHF#Code Generation#Test-Time Training2026년 1월 28일댓글 수 로딩 중
[논문리뷰] FFP-300K: Scaling First-Frame Propagation for Generalizable Video EditingPeng Tang이 arXiv에 게시한 'FFP-300K: Scaling First-Frame Propagation for Generalizable Video Editing' 논문에 대한 자세한 리뷰입니다.#Review#Video Editing#First-Frame Propagation (FFP)#Large-Scale Dataset#Generative Models#Temporal Consistency#Spatio-Temporal RoPE#Self-Distillation2026년 1월 6일댓글 수 로딩 중
[논문리뷰] SkillFactory: Self-Distillation For Learning Cognitive BehaviorsManya Wadhwa이 arXiv에 게시한 'SkillFactory: Self-Distillation For Learning Cognitive Behaviors' 논문에 대한 자세한 리뷰입니다.#Review#Self-Distillation#Cognitive Skills#Reinforcement Learning#Supervised Fine-Tuning#Language Models#Reasoning#Verification#Retrying2025년 12월 3일댓글 수 로딩 중
[논문리뷰] Step-Audio-R1 Technical ReportarXiv에 게시된 'Step-Audio-R1 Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Audio Reasoning#Multimodal LLMs#Modality-Grounded Reasoning Distillation (MGRD)#Chain-of-Thought#Reinforcement Learning#Audio Understanding#Self-Distillation2025년 11월 20일댓글 수 로딩 중
[논문리뷰] Artificial Hippocampus Networks for Efficient Long-Context ModelingarXiv에 게시된 'Artificial Hippocampus Networks for Efficient Long-Context Modeling' 논문에 대한 자세한 리뷰입니다.#Review#Long-Context Modeling#Transformer#RNN#Memory Management#Self-Distillation#Attention Mechanism#Artificial Hippocampus Networks#Cognitive Science2025년 10월 9일댓글 수 로딩 중
[논문리뷰] dParallel: Learnable Parallel Decoding for dLLMsarXiv에 게시된 'dParallel: Learnable Parallel Decoding for dLLMs' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Language Models#Parallel Decoding#Inference Acceleration#Certainty Distillation#Self-Distillation#Masked Language Models#LLaDA2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Lyra: Generative 3D Scene Reconstruction via Video Diffusion Model Self-DistillationYifeng Jiang이 arXiv에 게시한 'Lyra: Generative 3D Scene Reconstruction via Video Diffusion Model Self-Distillation' 논문에 대한 자세한 리뷰입니다.#Review#Generative AI#3D Scene Reconstruction#Video Diffusion Models#Self-Distillation#3D Gaussian Splatting#Dynamic 4D Generation#Monocular Input2025년 9월 24일댓글 수 로딩 중