[논문리뷰] FlowSlider: Training-Free Continuous Image Editing via Fidelity-Steering DecompositionKazuhiko Sumi이 arXiv에 게시한 'FlowSlider: Training-Free Continuous Image Editing via Fidelity-Steering Decomposition' 논문에 대한 자세한 리뷰입니다.#Review#Rectified Flow#Image Editing#Training-Free#Slider Control#Fidelity-Steering Decomposition2026년 4월 2일댓글 수 로딩 중
[논문리뷰] S2D2: Fast Decoding for Diffusion LLMs via Training-Free Self-SpeculationarXiv에 게시된 'S2D2: Fast Decoding for Diffusion LLMs via Training-Free Self-Speculation' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion LLMs#Self-Speculation#Training-Free#Block-Diffusion#Fast Decoding#Rejection Sampling#Routing Policies2026년 3월 26일댓글 수 로딩 중
[논문리뷰] Versatile Editing of Video Content, Actions, and Dynamics without TrainingarXiv에 게시된 'Versatile Editing of Video Content, Actions, and Dynamics without Training' 논문에 대한 자세한 리뷰입니다.#Review#Video Editing#Training-Free#Inversion-Free#Rectified Flow Models#Similarity Guided Aggregation (SGA)#Annealed Noise Correlation (ANC)#Text-to-Video Flow Models#Dynamic Manipulation2026년 3월 22일댓글 수 로딩 중
[논문리뷰] BEAVER: A Training-Free Hierarchical Prompt Compression Method via Structure-Aware Page SelectionarXiv에 게시된 'BEAVER: A Training-Free Hierarchical Prompt Compression Method via Structure-Aware Page Selection' 논문에 대한 자세한 리뷰입니다.#Review#Prompt Compression#Long-Context LLMs#Training-Free#Hierarchical Selection#Structure-Aware#Inference Latency#Information Utilization2026년 3월 22일댓글 수 로딩 중
[논문리뷰] Just-in-Time: Training-Free Spatial Acceleration for Diffusion TransformersZhaoqiang Liu이 arXiv에 게시한 'Just-in-Time: Training-Free Spatial Acceleration for Diffusion Transformers' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Transformers#Spatial Acceleration#Training-Free#Generative AI#Flow Matching#ODE Solvers#Inference Speedup#Resource Allocation2026년 3월 11일댓글 수 로딩 중
[논문리뷰] Spilled Energy in Large Language ModelsIacopo Masi이 arXiv에 게시한 'Spilled Energy in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#LLM Hallucination Detection#Energy-Based Models#Training-Free#Logit Analysis#Spilled Energy#Cross-Task Generalization#Autoregressive Models2026년 3월 3일댓글 수 로딩 중
[논문리뷰] NoLan: Mitigating Object Hallucinations in Large Vision-Language Models via Dynamic Suppression of Language PriorsXinchao Wang이 arXiv에 게시한 'NoLan: Mitigating Object Hallucinations in Large Vision-Language Models via Dynamic Suppression of Language Priors' 논문에 대한 자세한 리뷰입니다.#Review#Large Vision-Language Models (LVLMs)#Object Hallucinations#Language Priors#Contrastive Decoding#Dynamic Suppression#Training-Free#Multimodal AI2026년 2월 25일댓글 수 로딩 중
[논문리뷰] ScalSelect: Scalable Training-Free Multimodal Data Selection for Efficient Visual Instruction TuningarXiv에 게시된 'ScalSelect: Scalable Training-Free Multimodal Data Selection for Efficient Visual Instruction Tuning' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Data Selection#Visual Instruction Tuning#Training-Free#Scalability#Subspace Learning#Vision-Language Models#Attention Mechanism2026년 2월 12일댓글 수 로딩 중
[논문리뷰] ROCKET: Rapid Optimization via Calibration-guided Knapsack Enhanced Truncation for Efficient Model CompressionarXiv에 게시된 'ROCKET: Rapid Optimization via Calibration-guided Knapsack Enhanced Truncation for Efficient Model Compression' 논문에 대한 자세한 리뷰입니다.#Review#Model Compression#LLM#Training-Free#Knapsack Problem#Sparse Matrix Factorization#Dictionary Learning#Post-Training Optimization#Weight Sparsification2026년 2월 11일댓글 수 로딩 중
[논문리뷰] ASA: Training-Free Representation Engineering for Tool-Calling AgentsHongwei Zeng이 arXiv에 게시한 'ASA: Training-Free Representation Engineering for Tool-Calling Agents' 논문에 대한 자세한 리뷰입니다.#Review#Tool-Calling Agents#LLM Adaptation#Representation Engineering#Activation Steering#Training-Free#Inference-Time Control#Domain Adaptation2026년 2월 11일댓글 수 로딩 중
[논문리뷰] FASA: Frequency-aware Sparse AttentionarXiv에 게시된 'FASA: Frequency-aware Sparse Attention' 논문에 대한 자세한 리뷰입니다.#Review#Sparse Attention#KV Cache Optimization#Rotary Positional Embedding (RoPE)#Frequency Chunks (FCs)#LLMs#Long-Context#Training-Free2026년 2월 4일댓글 수 로딩 중
[논문리뷰] Scalable Power Sampling: Unlocking Efficient, Training-Free Reasoning for LLMs via Distribution SharpeningHaitham Bou Ammar이 arXiv에 게시한 'Scalable Power Sampling: Unlocking Efficient, Training-Free Reasoning for LLMs via Distribution Sharpening' 논문에 대한 자세한 리뷰입니다.#Review#LLM Reasoning#Distribution Sharpening#Power Sampling#Training-Free#Monte Carlo Estimation#Jackknife Correction#Autoregressive Generation#Inference Efficiency2026년 1월 29일댓글 수 로딩 중
[논문리뷰] MAD: Modality-Adaptive Decoding for Mitigating Cross-Modal Hallucinations in Multimodal Large Language ModelsYong Man Ro이 arXiv에 게시한 'MAD: Modality-Adaptive Decoding for Mitigating Cross-Modal Hallucinations in Multimodal Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLM#Cross-modal Hallucination#Contrastive Decoding#Modality-Adaptive Decoding#Self-Assessment#Audio-Visual Language Model#Training-Free2026년 1월 29일댓글 수 로딩 중
[논문리뷰] OpenVoxel: Training-Free Grouping and Captioning Voxels for Open-Vocabulary 3D Scene UnderstandingarXiv에 게시된 'OpenVoxel: Training-Free Grouping and Captioning Voxels for Open-Vocabulary 3D Scene Understanding' 논문에 대한 자세한 리뷰입니다.#Review#3D Scene Understanding#Open-Vocabulary Segmentation#Referring Expression Segmentation#Training-Free#Voxel Grouping#Vision-Language Models#Multi-modal Large Language Models#Sparse Voxel Rasterization2026년 1월 14일댓글 수 로딩 중
[논문리뷰] SpotEdit: Selective Region Editing in Diffusion TransformersarXiv에 게시된 'SpotEdit: Selective Region Editing in Diffusion Transformers' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Transformer#Image Editing#Selective Editing#Computational Efficiency#Training-Free#Region-Aware#Perceptual Similarity2025년 12월 29일댓글 수 로딩 중
[논문리뷰] SpaceControl: Introducing Test-Time Spatial Control to 3D Generative ModelingMarc Pollefeys이 arXiv에 게시한 'SpaceControl: Introducing Test-Time Spatial Control to 3D Generative Modeling' 논문에 대한 자세한 리뷰입니다.#Review#3D Generative Models#Spatial Control#Test-Time Guidance#Rectified Flow#Superquadrics#Training-Free#Trellis2025년 12월 7일댓글 수 로딩 중
[논문리뷰] PromptBridge: Cross-Model Prompt Transfer for Large Language ModelsWei Wei이 arXiv에 게시한 'PromptBridge: Cross-Model Prompt Transfer for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Prompt Engineering#Model Drifting#Prompt Transfer#Cross-Model Adaptation#Training-Free#Prompt Optimization#MAP-RPE2025년 12월 1일댓글 수 로딩 중
[논문리뷰] Latent Collaboration in Multi-Agent SystemsarXiv에 게시된 'Latent Collaboration in Multi-Agent Systems' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent Systems#Large Language Models#Latent Space#Latent Reasoning#Latent Communication#KV Cache#Computational Efficiency#Training-Free2025년 11월 26일댓글 수 로딩 중
[논문리뷰] Block Cascading: Training Free Acceleration of Block-Causal Video ModelsarXiv에 게시된 'Block Cascading: Training Free Acceleration of Block-Causal Video Models' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Diffusion Models#Block-Causal Models#Inference Acceleration#Multi-GPU Parallelism#Training-Free#KV Caching#Interactive AI2025년 11월 26일댓글 수 로딩 중
[논문리뷰] Diversity Has Always Been There in Your Visual Autoregressive ModelsYaxing Wang이 arXiv에 게시한 'Diversity Has Always Been There in Your Visual Autoregressive Models' 논문에 대한 자세한 리뷰입니다.#Review#Visual Autoregressive Models#Diversity Collapse#Generative Diversity#Soft-Suppression Regularization#Soft-Amplification Regularization#Training-Free#Image Generation#Singular Value Decomposition2025년 11월 23일댓글 수 로딩 중
[논문리뷰] DyPE: Dynamic Position Extrapolation for Ultra High Resolution DiffusionarXiv에 게시된 'DyPE: Dynamic Position Extrapolation for Ultra High Resolution Diffusion' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Transformer Architecture#Positional Encoding#High-Resolution Image Generation#Extrapolation#Dynamic Adaptation#Training-Free2025년 10월 24일댓글 수 로딩 중
[논문리뷰] Video Reasoning without TrainingarXiv에 게시된 'Video Reasoning without Training' 논문에 대한 자세한 리뷰입니다.#Review#Video Reasoning#Large Multimodal Models (LMMs)#Inference-Time Optimization#Entropy-Based Objective#Training-Free#KV-Cache Steering#Micro-Exploration#Macro-Exploitation2025년 10월 22일댓글 수 로딩 중
[논문리뷰] GuideFlow3D: Optimization-Guided Rectified Flow For Appearance TransferarXiv에 게시된 'GuideFlow3D: Optimization-Guided Rectified Flow For Appearance Transfer' 논문에 대한 자세한 리뷰입니다.#Review#3D Appearance Transfer#Rectified Flow#Generative Models#Optimization-Guided Sampling#Neural Latent Representations#Training-Free#GPT-Based Evaluation2025년 10월 21일댓글 수 로딩 중
[논문리뷰] NANO3D: A Training-Free Approach for Efficient 3D Editing Without MasksHongyu Yan이 arXiv에 게시한 'NANO3D: A Training-Free Approach for Efficient 3D Editing Without Masks' 논문에 대한 자세한 리뷰입니다.#Review#3D Object Editing#Training-Free#FlowEdit#Mask-Free#Deep Generative Models#TRELLIS#Data Generation#Geometric Consistency2025년 10월 20일댓글 수 로딩 중
[논문리뷰] LightCache: Memory-Efficient, Training-Free Acceleration for Video GenerationZheng Zhan이 arXiv에 게시한 'LightCache: Memory-Efficient, Training-Free Acceleration for Video Generation' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Diffusion Models#Memory Efficiency#Inference Acceleration#Training-Free#Cache Mechanism#GPU Optimization2025년 10월 8일댓글 수 로딩 중
[논문리뷰] SwiReasoning: Switch-Thinking in Latent and Explicit for Pareto-Superior Reasoning LLMsarXiv에 게시된 'SwiReasoning: Switch-Thinking in Latent and Explicit for Pareto-Superior Reasoning LLMs' 논문에 대한 자세한 리뷰입니다.#Review#LLM Reasoning#Latent Thinking#Explicit Thinking#Training-Free#Token Efficiency#Accuracy Improvement#Dynamic Switching#Entropy-based Control2025년 10월 7일댓글 수 로딩 중
[논문리뷰] HiGS: History-Guided Sampling for Plug-and-Play Enhancement of Diffusion ModelsRomann M. Weber이 arXiv에 게시한 'HiGS: History-Guided Sampling for Plug-and-Play Enhancement of Diffusion Models' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Sampling#Generative AI#Image Generation#Plug-and-Play#Training-Free#Guidance#Momentum-Based Methods2025년 9월 29일댓글 수 로딩 중
[논문리뷰] Does FLUX Already Know How to Perform Physically Plausible Image Composition?Chen Zhao이 arXiv에 게시한 'Does FLUX Already Know How to Perform Physically Plausible Image Composition?' 논문에 대한 자세한 리뷰입니다.#Review#Image Composition#Diffusion Models#Training-Free#Physically Plausible#FLUX#Adapter#Guidance#Benchmark2025년 9월 26일댓글 수 로딩 중
[논문리뷰] ContextFlow: Training-Free Video Object Editing via Adaptive Context EnrichmentYue Ma이 arXiv에 게시한 'ContextFlow: Training-Free Video Object Editing via Adaptive Context Enrichment' 논문에 대한 자세한 리뷰입니다.#Review#Video Object Editing#Training-Free#Diffusion Transformers#Rectified Flow#Adaptive Context Enrichment#Guidance Responsiveness#Temporal Consistency#Image-to-Video2025년 9월 23일댓글 수 로딩 중
[논문리뷰] LazyDrag: Enabling Stable Drag-Based Editing on Multi-Modal Diffusion Transformers via Explicit CorrespondenceLionel M. Ni이 arXiv에 게시한 'LazyDrag: Enabling Stable Drag-Based Editing on Multi-Modal Diffusion Transformers via Explicit Correspondence' 논문에 대한 자세한 리뷰입니다.#Review#Image Editing#Diffusion Models#Multi-Modal Transformers#Drag-based Editing#Explicit Correspondence#Attention Control#Identity Preservation#Training-Free2025년 9월 16일댓글 수 로딩 중
[논문리뷰] Focusing by Contrastive Attention: Enhancing VLMs' Visual ReasoningBaolong Bi이 arXiv에 게시한 'Focusing by Contrastive Attention: Enhancing VLMs' Visual Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models (VLMs)#Visual Reasoning#Attention Mechanisms#Contrastive Learning#Noise Suppression#Visual Complexity#Training-Free2025년 9월 9일댓글 수 로딩 중
[논문리뷰] Diffusion Language Models Know the Answer Before DecodingShilin Yan이 arXiv에 게시한 'Diffusion Language Models Know the Answer Before Decoding' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Language Models#DLM Acceleration#Early Answer Convergence#Early Commit Decoding#Confidence Gap#Inference Speedup#Training-Free2025년 8월 28일댓글 수 로딩 중
[논문리뷰] VoxHammer: Training-Free Precise and Coherent 3D Editing in Native 3D SpaceRui Chen이 arXiv에 게시한 'VoxHammer: Training-Free Precise and Coherent 3D Editing in Native 3D Space' 논문에 대한 자세한 리뷰입니다.#Review#3D Editing#Training-Free#Diffusion Models#Latent Space#3D Inversion#Contextual Feature Replacement#3D Consistency#Edit3D-Bench2025년 8월 27일댓글 수 로딩 중
[논문리뷰] Training-Free Text-Guided Color Editing with Multi-Modal Diffusion TransformerDeyu Zhou이 arXiv에 게시한 'Training-Free Text-Guided Color Editing with Multi-Modal Diffusion Transformer' 논문에 대한 자세한 리뷰입니다.#Review#Text-Guided Editing#Color Editing#Diffusion Transformers#Training-Free#Multi-Modal AI#Attention Control#Image Manipulation2025년 8월 20일댓글 수 로딩 중
[논문리뷰] MedSAMix: A Training-Free Model Merging Approach for Medical Image SegmentationJonas Geiping이 arXiv에 게시한 'MedSAMix: A Training-Free Model Merging Approach for Medical Image Segmentation' 논문에 대한 자세한 리뷰입니다.#Review#Medical Image Segmentation#Model Merging#Training-Free#SAM#Generalization#Zero-Order Optimization#Bayesian Optimization2025년 8월 20일댓글 수 로딩 중
[논문리뷰] S^2-Guidance: Stochastic Self Guidance for Training-Free Enhancement of Diffusion ModelsMeiqi Wu이 arXiv에 게시한 'S^2-Guidance: Stochastic Self Guidance for Training-Free Enhancement of Diffusion Models' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Classifier-free Guidance#Self-Guidance#Training-Free#Stochastic Block-Dropping#Generative Models#Text-to-Image2025년 8월 19일댓글 수 로딩 중
[논문리뷰] Story2Board: A Training-Free Approach for Expressive Storyboard GenerationDani Lischinski이 arXiv에 게시한 'Story2Board: A Training-Free Approach for Expressive Storyboard Generation' 논문에 대한 자세한 리뷰입니다.#Review#Storyboard Generation#Text-to-Image#Diffusion Models#Training-Free#Character Consistency#Scene Diversity#Visual Storytelling2025년 8월 14일댓글 수 로딩 중
[논문리뷰] UNCAGE: Contrastive Attention Guidance for Masked Generative Transformers in Text-to-Image GenerationKevin Galim이 arXiv에 게시한 'UNCAGE: Contrastive Attention Guidance for Masked Generative Transformers in Text-to-Image Generation' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Image Generation#Masked Generative Transformers#Compositional Generation#Attention Guidance#Unmasking Strategy#Contrastive Learning#Training-Free#Attribute Binding2025년 8월 13일댓글 수 로딩 중
[논문리뷰] Less Is More: Training-Free Sparse Attention with Global Locality for Efficient ReasoningBaihong Yuan이 arXiv에 게시한 'Less Is More: Training-Free Sparse Attention with Global Locality for Efficient Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Sparse Attention#LLMs#Reasoning Tasks#Efficiency#Training-Free#Global Locality#KV Cache Optimization2025년 8월 12일댓글 수 로딩 중
[논문리뷰] LAMIC: Layout-Aware Multi-Image Composition via Scalability of Multimodal Diffusion TransformerShunyu Yao이 arXiv에 게시한 'LAMIC: Layout-Aware Multi-Image Composition via Scalability of Multimodal Diffusion Transformer' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Image Composition#Layout Control#Diffusion Models#Transformer#Attention Mechanisms#Training-Free#Zero-Shot Generalization2025년 8월 6일댓글 수 로딩 중