[논문리뷰] 6Bit-Diffusion: Inference-Time Mixed-Precision Quantization for Video Diffusion ModelsarXiv에 게시된 '6Bit-Diffusion: Inference-Time Mixed-Precision Quantization for Video Diffusion Models' 논문에 대한 자세한 리뷰입니다.#Review#Video Diffusion Transformers#Mixed-Precision Quantization#Inference Acceleration#Temporal Delta Cache#NVFP4#INT8#Post-Training Quantization#Memory Reduction2026년 3월 25일댓글 수 로딩 중
[논문리뷰] WorldCache: Content-Aware Caching for Accelerated Video World ModelsSalman Khan이 arXiv에 게시한 'WorldCache: Content-Aware Caching for Accelerated Video World Models' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Transformers#Video World Models#Feature Caching#Inference Acceleration#Content-Aware Caching#Motion-Adaptive Caching#Perception-Constrained Caching#Optimal Feature Approximation2026년 3월 23일댓글 수 로딩 중
[논문리뷰] WorldCache: Accelerating World Models for Free via Heterogeneous Token CachingMingqiang Wu이 arXiv에 게시한 'WorldCache: Accelerating World Models for Free via Heterogeneous Token Caching' 논문에 대한 자세한 리뷰입니다.#Review#World Models#Diffusion Models#Inference Acceleration#Feature Caching#Heterogeneous Tokens#Curvature Prediction#Adaptive Skipping2026년 3월 8일댓글 수 로딩 중
[논문리뷰] Kling-MotionControl Technical ReportarXiv에 게시된 'Kling-MotionControl Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Character Animation#Video Generation#Diffusion Transformers (DiT)#Motion Control#Identity Preservation#Cross-Identity Transfer#Inference Acceleration#Multi-Granular Motion2026년 3월 3일댓글 수 로딩 중
[논문리뷰] SenCache: Accelerating Diffusion Model Inference via Sensitivity-Aware CachingAlexandre Alahi이 arXiv에 게시한 'SenCache: Accelerating Diffusion Model Inference via Sensitivity-Aware Caching' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Inference Acceleration#Caching#Sensitivity Analysis#Dynamic Caching#Video Generation#Denoising2026년 3월 1일댓글 수 로딩 중
[논문리뷰] DDiT: Dynamic Patch Scheduling for Efficient Diffusion TransformersDeepti Ghadiyaram이 arXiv에 게시한 'DDiT: Dynamic Patch Scheduling for Efficient Diffusion Transformers' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Transformers#Dynamic Tokenization#Patch Scheduling#Inference Acceleration#Text-to-Image Generation#Text-to-Video Generation#Latent Manifold Analysis#LoRA2026년 2월 19일댓글 수 로딩 중
[논문리뷰] LLaDA2.1: Speeding Up Text Diffusion via Token EditingarXiv에 게시된 'LLaDA2.1: Speeding Up Text Diffusion via Token Editing' 논문에 대한 자세한 리뷰입니다.#Review#Text Diffusion#Token Editing#Inference Acceleration#Mask-to-Token#Token-to-Token#Reinforcement Learning#Speedy Mode#Quality Mode2026년 2월 9일댓글 수 로딩 중
[논문리뷰] LoPA: Scaling dLLM Inference via Lookahead Parallel DecodingarXiv에 게시된 'LoPA: Scaling dLLM Inference via Lookahead Parallel Decoding' 논문에 대한 자세한 리뷰입니다.#Review#dLLM#Parallel Decoding#Lookahead#Inference Acceleration#Token Filling Order#Branch Parallelism#Diffusion Models2025년 12월 22일댓글 수 로딩 중
[논문리뷰] Seedance 1.5 pro: A Native Audio-Visual Joint Generation Foundation ModelarXiv에 게시된 'Seedance 1.5 pro: A Native Audio-Visual Joint Generation Foundation Model' 논문에 대한 자세한 리뷰입니다.#Review#Audio-Visual Generation#Diffusion Transformer#Multimodal AI#Speech Synchronization#Video Generation#Reinforcement Learning from Human Feedback#Inference Acceleration2025년 12월 18일댓글 수 로딩 중
[논문리뷰] FlashPortrait: 6x Faster Infinite Portrait Animation with Adaptive Latent PredictionarXiv에 게시된 'FlashPortrait: 6x Faster Infinite Portrait Animation with Adaptive Latent Prediction' 논문에 대한 자세한 리뷰입니다.#Review#Portrait Animation#Diffusion Models#Inference Acceleration#Identity Preservation#Video Generation#Latent Prediction#Sliding Window2025년 12월 18일댓글 수 로딩 중
[논문리뷰] DEER: Draft with Diffusion, Verify with Autoregressive ModelsZhijie Deng이 arXiv에 게시한 'DEER: Draft with Diffusion, Verify with Autoregressive Models' 논문에 대한 자세한 리뷰입니다.#Review#Speculative Decoding#Diffusion LLM#Autoregressive Model#Inference Acceleration#Model Alignment#Code Generation#Block Regeneration2025년 12월 17일댓글 수 로딩 중
[논문리뷰] Native Parallel Reasoner: Reasoning in Parallelism via Self-Distilled Reinforcement LearningarXiv에 게시된 'Native Parallel Reasoner: Reasoning in Parallelism via Self-Distilled Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models (LLMs)#Parallel Reasoning#Self-Distilled Reinforcement Learning#Policy Optimization#Inference Acceleration#Structured Output#Agentic Reasoning2025년 12월 8일댓글 수 로딩 중
[논문리뷰] Block Cascading: Training Free Acceleration of Block-Causal Video ModelsarXiv에 게시된 'Block Cascading: Training Free Acceleration of Block-Causal Video Models' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Diffusion Models#Block-Causal Models#Inference Acceleration#Multi-GPU Parallelism#Training-Free#KV Caching#Interactive AI2025년 11월 26일댓글 수 로딩 중
[논문리뷰] OmniZip: Audio-Guided Dynamic Token Compression for Fast Omnimodal Large Language ModelsJian liu이 arXiv에 게시한 'OmniZip: Audio-Guided Dynamic Token Compression for Fast Omnimodal Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Omnimodal LLMs#Token Compression#Audio-Video Understanding#Dynamic Pruning#Inference Acceleration#Spatio-Temporal Compression#Large Language Models2025년 11월 18일댓글 수 로딩 중
[논문리뷰] Speculative Jacobi-Denoising Decoding for Accelerating Autoregressive Text-to-image GenerationHan Shi이 arXiv에 게시한 'Speculative Jacobi-Denoising Decoding for Accelerating Autoregressive Text-to-image Generation' 논문에 대한 자세한 리뷰입니다.#Review#Autoregressive Models#Text-to-Image Generation#Inference Acceleration#Jacobi Decoding#Denoising Diffusion Models#Speculative Decoding#Multi-token Prediction#Fine-tuning2025년 10월 13일댓글 수 로딩 중
[논문리뷰] LightCache: Memory-Efficient, Training-Free Acceleration for Video GenerationZheng Zhan이 arXiv에 게시한 'LightCache: Memory-Efficient, Training-Free Acceleration for Video Generation' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Diffusion Models#Memory Efficiency#Inference Acceleration#Training-Free#Cache Mechanism#GPU Optimization2025년 10월 8일댓글 수 로딩 중
[논문리뷰] Fast-dLLM v2: Efficient Block-Diffusion LLMarXiv에 게시된 'Fast-dLLM v2: Efficient Block-Diffusion LLM' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion LLMs#Inference Acceleration#Parallel Decoding#Autoregressive Models#Caching#Fine-tuning#Block-wise Attention2025년 10월 8일댓글 수 로딩 중
[논문리뷰] dParallel: Learnable Parallel Decoding for dLLMsarXiv에 게시된 'dParallel: Learnable Parallel Decoding for dLLMs' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Language Models#Parallel Decoding#Inference Acceleration#Certainty Distillation#Self-Distillation#Masked Language Models#LLaDA2025년 10월 1일댓글 수 로딩 중
[논문리뷰] d^2Cache: Accelerating Diffusion-Based LLMs via Dual Adaptive CachingJiarui Wang이 arXiv에 게시한 'd^2Cache: Accelerating Diffusion-Based LLMs via Dual Adaptive Caching' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Large Language Models (LLMs)#Inference Acceleration#KV Cache#Bidirectional Attention#Adaptive Caching#Token Selection2025년 10월 1일댓글 수 로딩 중