[논문리뷰] TDM-R1: Reinforcing Few-Step Diffusion Models with Non-Differentiable RewardarXiv에 게시된 'TDM-R1: Reinforcing Few-Step Diffusion Models with Non-Differentiable Reward' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Reinforcement Learning#Non-Differentiable Rewards#Few-Step Generation#Trajectory Distribution Matching#Surrogate Reward Learning#Text-to-Image2026년 3월 9일댓글 수 로딩 중
[논문리뷰] Image Generation with a Sphere EncoderarXiv에 게시된 'Image Generation with a Sphere Encoder' 논문에 대한 자세한 리뷰입니다.#Review#Image Generation#Sphere Encoder#Autoencoder#Latent Space#Few-Step Generation#Conditional Generation#Diffusion Models#Perceptual Loss2026년 2월 25일댓글 수 로딩 중
[논문리뷰] Optimizing Few-Step Generation with Adaptive Matching DistillationarXiv에 게시된 'Optimizing Few-Step Generation with Adaptive Matching Distillation' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Knowledge Distillation#Few-Step Generation#Adaptive Matching#Forbidden Zones#Generative Models#Sample Quality#Training Stability2026년 2월 18일댓글 수 로딩 중
[논문리뷰] Terminal Velocity MatchingJiaming Song이 arXiv에 게시한 'Terminal Velocity Matching' 논문에 대한 자세한 리뷰입니다.#Review#Generative Models#Flow Matching#Diffusion Models#One-Step Generation#Few-Step Generation#Wasserstein Distance#Transformer Architecture#Lipschitz Continuity2025년 11월 26일댓글 수 로딩 중
[논문리뷰] AlphaFlow: Understanding and Improving MeanFlow ModelsarXiv에 게시된 'AlphaFlow: Understanding and Improving MeanFlow Models' 논문에 대한 자세한 리뷰입니다.#Review#Generative Models#Flow Matching#Consistency Models#MeanFlow#Curriculum Learning#Few-Step Generation#Image Generation2025년 10월 24일댓글 수 로딩 중
[논문리뷰] pi-Flow: Policy-Based Few-Step Generation via Imitation DistillationarXiv에 게시된 'pi-Flow: Policy-Based Few-Step Generation via Imitation Distillation' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Flow Matching#Generative Models#Model Distillation#Imitation Learning#Few-Step Generation#Policy-Based AI#Text-to-Image2025년 10월 17일댓글 수 로딩 중
[논문리뷰] SD3.5-Flash: Distribution-Guided Distillation of Generative FlowsYi-Zhe Song이 arXiv에 게시한 'SD3.5-Flash: Distribution-Guided Distillation of Generative Flows' 논문에 대한 자세한 리뷰입니다.#Review#Generative AI#Image Generation#Diffusion Models#Rectified Flow#Model Distillation#Few-Step Generation#Computational Efficiency#Prompt Alignment2025년 9월 26일댓글 수 로딩 중
[논문리뷰] Q-Sched: Pushing the Boundaries of Few-Step Diffusion Models with Quantization-Aware SchedulingDiana Marculescu이 arXiv에 게시한 'Q-Sched: Pushing the Boundaries of Few-Step Diffusion Models with Quantization-Aware Scheduling' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Quantization#Few-Step Generation#Model Compression#Noise Scheduling#Post-Training Quantization#Image Quality Metrics#Latent Consistency Models2025년 9월 10일댓글 수 로딩 중
[논문리뷰] Transition Models: Rethinking the Generative Learning ObjectiveYangguang Li이 arXiv에 게시한 'Transition Models: Rethinking the Generative Learning Objective' 논문에 대한 자세한 리뷰입니다.#Review#Generative Models#Diffusion Models#Training Objective#Continuous-Time Dynamics#State Transition#Few-Step Generation#Scalable Training#Image Generation2025년 9월 5일댓글 수 로딩 중