[논문리뷰] Repurposing 3D Generative Model for Autoregressive Layout GenerationarXiv에 게시된 'Repurposing 3D Generative Model for Autoregressive Layout Generation' 논문에 대한 자세한 리뷰입니다.#Review#Autoregressive Layout Generation#3D Generative Models#Diffusion Models#Exposure Bias#Dual-Guidance Self-Rollout2026년 4월 19일댓글 수 로딩 중
[논문리뷰] A Survey of On-Policy Distillation for Large Language ModelsMao Zheng이 arXiv에 게시한 'A Survey of On-Policy Distillation for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#On-Policy Distillation#Large Language Models#Knowledge Distillation#Exposure Bias#f-Divergence#Sequence-Level Learning#Reinforcement Learning2026년 4월 1일댓글 수 로딩 중
[논문리뷰] MemDLM: Memory-Enhanced DLM TrainingarXiv에 게시된 'MemDLM: Memory-Enhanced DLM Training' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Language Models#Train-Inference Mismatch#Bi-level Optimization#Parametric Memory#Fast Weights#Long-Context Understanding#Exposure Bias#In-Weight Retrieval2026년 3월 23일댓글 수 로딩 중
[논문리뷰] Rethinking Training Dynamics in Scale-wise Autoregressive GenerationarXiv에 게시된 'Rethinking Training Dynamics in Scale-wise Autoregressive Generation' 논문에 대한 자세한 리뷰입니다.#Review#Autoregressive Generation#Visual Synthesis#Exposure Bias#Student Forcing#Self-Autoregressive Refinement#Scale-wise Prediction#Image Generation2025년 12월 8일댓글 수 로딩 중