[논문리뷰] Apriel-Reasoner: RL Post-Training for General-Purpose and Efficient ReasoningarXiv에 게시된 'Apriel-Reasoner: RL Post-Training for General-Purpose and Efficient Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Chain-of-Thought#Efficiency#RLVR#Multi-Domain#Reasoning2026년 4월 2일댓글 수 로딩 중
[논문리뷰] AVControl: Efficient Framework for Training Audio-Visual ControlsarXiv에 게시된 'AVControl: Efficient Framework for Training Audio-Visual Controls' 논문에 대한 자세한 리뷰입니다.#Review#Audio-Visual Generation#Video Control#LoRA#Parallel Canvas Conditioning#Diffusion Models#Modularity#Efficiency2026년 3월 26일댓글 수 로딩 중
[논문리뷰] Look Where It Matters: High-Resolution Crops Retrieval for Efficient VLMsEhud Rivlin이 arXiv에 게시한 'Look Where It Matters: High-Resolution Crops Retrieval for Efficient VLMs' 논문에 대한 자세한 리뷰입니다.#Review#Vision-language models#High-resolution crops#Tool-calling#Efficiency#Reinforcement Learning#Multi-turn interaction#Data curation#Spatial-on-demand2026년 3월 23일댓글 수 로딩 중
[논문리뷰] Search More, Think Less: Rethinking Long-Horizon Agentic Search for Efficiency and GeneralizationarXiv에 게시된 'Search More, Think Less: Rethinking Long-Horizon Agentic Search for Efficiency and Generalization' 논문에 대한 자세한 리뷰입니다.#Review#Agentic AI#Long-Horizon Search#Parallel Execution#Data Synthesis#Reinforcement Learning#Generalization#Efficiency#LLM Agent2026년 2월 26일댓글 수 로딩 중
[논문리뷰] SimVLA: A Simple VLA Baseline for Robotic ManipulationarXiv에 게시된 'SimVLA: A Simple VLA Baseline for Robotic Manipulation' 논문에 대한 자세한 리뷰입니다.#Review#Robotic Manipulation#Vision-Language-Action (VLA) Models#Baseline Model#Modular Design#Flow Matching#Zero-Shot Generalization#Standardized Training#Efficiency2026년 2월 23일댓글 수 로딩 중
[논문리뷰] InftyThink+: Effective and Efficient Infinite-Horizon Reasoning via Reinforcement LearningarXiv에 게시된 'InftyThink+: Effective and Efficient Infinite-Horizon Reasoning via Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Iterative Reasoning#Reinforcement Learning#Large Language Models#Context Management#Summarization#Chain-of-Thought#Efficiency#Mathematical Reasoning2026년 2월 8일댓글 수 로딩 중
[논문리뷰] OmniSIFT: Modality-Asymmetric Token Compression for Efficient Omni-modal Large Language ModelsYiyan Ji이 arXiv에 게시한 'OmniSIFT: Modality-Asymmetric Token Compression for Efficient Omni-modal Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Omni-modal LLMs#Token Compression#Modality-Asymmetric#Video Pruning#Audio Selection#Efficiency#Large Language Models#Spatio-Temporal2026년 2월 4일댓글 수 로딩 중
[논문리뷰] Token Sparse Attention: Efficient Long-Context Inference with Interleaved Token SelectionJae-Joon Kim이 arXiv에 게시한 'Token Sparse Attention: Efficient Long-Context Inference with Interleaved Token Selection' 논문에 대한 자세한 리뷰입니다.#Review#Sparse Attention#Long-Context Inference#LLMs#Token Selection#Efficiency#Transformer#Dynamic Sparsity2026년 2월 3일댓글 수 로딩 중
[논문리뷰] ConceptMoE: Adaptive Token-to-Concept Compression for Implicit Compute AllocationarXiv에 게시된 'ConceptMoE: Adaptive Token-to-Concept Compression for Implicit Compute Allocation' 논문에 대한 자세한 리뷰입니다.#Review#MoE#LLMs#Adaptive Compression#Token Merging#Compute Allocation#Efficiency#Vision-Language Models#Continual Training2026년 1월 29일댓글 수 로딩 중
[논문리뷰] UPLiFT: Efficient Pixel-Dense Feature Upsampling with Local AttendersarXiv에 게시된 'UPLiFT: Efficient Pixel-Dense Feature Upsampling with Local Attenders' 논문에 대한 자세한 리뷰입니다.#Review#Feature Upsampling#Local Attender#Pixel-Dense Features#Iterative Upsampling#Vision Transformer#Efficiency#Generative AI#Semantic Segmentation2026년 1월 28일댓글 수 로딩 중
[논문리뷰] Transition Matching Distillation for Fast Video GenerationarXiv에 게시된 'Transition Matching Distillation for Fast Video Generation' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Diffusion Models#Model Distillation#Few-Step Sampling#Transition Matching#Flow Matching#DMD2#Efficiency2026년 1월 15일댓글 수 로딩 중
[논문리뷰] HiStream: Efficient High-Resolution Video Generation via Redundancy-Eliminated StreamingarXiv에 게시된 'HiStream: Efficient High-Resolution Video Generation via Redundancy-Eliminated Streaming' 논문에 대한 자세한 리뷰입니다.#Review#High-Resolution Video Generation#Diffusion Models#Autoregressive#Efficiency#Caching#Attention Mechanisms#Video Streaming#Temporal Consistency2025년 12월 24일댓글 수 로딩 중
[논문리뷰] InfiniteVL: Synergizing Linear and Sparse Attention for Highly-Efficient, Unlimited-Input Vision-Language ModelsarXiv에 게시된 'InfiniteVL: Synergizing Linear and Sparse Attention for Highly-Efficient, Unlimited-Input Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Linear Attention#Sliding Window Attention#Gated DeltaNet#Long-Context Understanding#Efficiency#Hybrid Architecture#Multimodal Learning2025년 12월 10일댓글 수 로딩 중
[논문리뷰] LongCat-Image Technical ReportarXiv에 게시된 'LongCat-Image Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Image Generation#Text-to-Image#Image Editing#Diffusion Model#Multilingual Text Rendering#Photorealism#Efficiency#Open-Source2025년 12월 8일댓글 수 로딩 중
[논문리뷰] Focused Chain-of-Thought: Efficient LLM Reasoning via Structured Input InformationKristian Kersting이 arXiv에 게시한 'Focused Chain-of-Thought: Efficient LLM Reasoning via Structured Input Information' 논문에 대한 자세한 리뷰입니다.#Review#LLM Reasoning#Chain-of-Thought#Prompt Engineering#Efficiency#Structured Input#Information Extraction#Cognitive Psychology#Token Reduction2025년 11월 30일댓글 수 로딩 중
[논문리뷰] Can Visual Input Be Compressed? A Visual Token Compression Benchmark for Large Multimodal ModelsShijie Dong이 arXiv에 게시한 'Can Visual Input Be Compressed? A Visual Token Compression Benchmark for Large Multimodal Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Multimodal Models#Visual Token Compression#Token Pruning#Benchmark#Efficiency#Inference Latency#Multimodal LLMs2025년 11월 9일댓글 수 로딩 중
[논문리뷰] PixelRefer: A Unified Framework for Spatio-Temporal Object Referring with Arbitrary GranularityKehan Li이 arXiv에 게시한 'PixelRefer: A Unified Framework for Spatio-Temporal Object Referring with Arbitrary Granularity' 논문에 대한 자세한 리뷰입니다.#Review#MLLM#Region-level Understanding#Object-centric Reasoning#Spatio-temporal Referring#Video Understanding#Scale-Adaptive Tokenizer#Efficiency#Instruction Tuning2025년 10월 28일댓글 수 로딩 중
[논문리뷰] E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise RerankerarXiv에 게시된 'E^2Rank: Your Text Embedding can Also be an Effective and Efficient Listwise Reranker' 논문에 대한 자세한 리뷰입니다.#Review#Text Embedding#Listwise Reranking#Information Retrieval#Pseudo Relevance Feedback#Contrastive Learning#Multi-task Learning#Efficiency#LLM-based Ranking2025년 10월 28일댓글 수 로딩 중
[논문리뷰] LaSeR: Reinforcement Learning with Last-Token Self-RewardingarXiv에 게시된 'LaSeR: Reinforcement Learning with Last-Token Self-Rewarding' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#LLM#Self-Verification#Last-Token#Reward Modeling#Efficiency#Reasoning#RLVR2025년 10월 17일댓글 수 로딩 중
[논문리뷰] Native Hybrid Attention for Efficient Sequence ModelingYu Cheng이 arXiv에 게시한 'Native Hybrid Attention for Efficient Sequence Modeling' 논문에 대한 자세한 리뷰입니다.#Review#Sequence Modeling#Hybrid Attention#Transformer Architecture#Linear Attention#Sliding Window Attention#Long Context#Large Language Models (LLMs)#Efficiency2025년 10월 9일댓글 수 로딩 중
[논문리뷰] MixReasoning: Switching Modes to ThinkarXiv에 게시된 'MixReasoning: Switching Modes to Think' 논문에 대한 자세한 리뷰입니다.#Review#LLM Reasoning#Chain-of-Thought#Efficiency#LoRA#Adaptive Reasoning#Token Uncertainty#Dynamic Switching#Reasoning Compression2025년 10월 8일댓글 수 로딩 중
[논문리뷰] Efficient Multi-modal Large Language Models via Progressive Consistency DistillationarXiv에 게시된 'Efficient Multi-modal Large Language Models via Progressive Consistency Distillation' 논문에 대한 자세한 리뷰입니다.#Review#Multi-modal LLMs#Token Compression#Efficiency#Knowledge Distillation#Progressive Learning#Consistency Distillation#MLLM Training2025년 10월 6일댓글 수 로딩 중
[논문리뷰] Apriel-1.5-15b-ThinkerarXiv에 게시된 'Apriel-1.5-15b-Thinker' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Reasoning Model#Open-Weights Model#Continual Pretraining (CPT)#Supervised Fine-Tuning (SFT)#Training Design#Efficiency#Frontier Performance2025년 10월 6일댓글 수 로딩 중
[논문리뷰] GUI-KV: Efficient GUI Agents via KV Cache with Spatio-Temporal AwarenessChien-Sheng Wu이 arXiv에 게시한 'GUI-KV: Efficient GUI Agents via KV Cache with Spatio-Temporal Awareness' 논문에 대한 자세한 리뷰입니다.#Review#GUI Agents#KV Cache Compression#Spatio-Temporal Awareness#Vision-Language Models#Efficiency#Attention Sparsity#QR Decomposition2025년 10월 2일댓글 수 로딩 중
[논문리뷰] Flash-Searcher: Fast and Effective Web Agents via DAG-Based Parallel ExecutionarXiv에 게시된 'Flash-Searcher: Fast and Effective Web Agents via DAG-Based Parallel Execution' 논문에 대한 자세한 리뷰입니다.#Review#LLM Agents#Parallel Execution#DAG-based Planning#Tool Orchestration#Web Agents#Reasoning Framework#Efficiency2025년 10월 2일댓글 수 로딩 중
[논문리뷰] Efficient Audio-Visual Speech Separation with Discrete Lip Semantics and Multi-Scale Global-Local AttentionarXiv에 게시된 'Efficient Audio-Visual Speech Separation with Discrete Lip Semantics and Multi-Scale Global-Local Attention' 논문에 대한 자세한 리뷰입니다.#Review#Audio-Visual Speech Separation#Deep Learning#Efficiency#Discrete Lip Semantics#Global-Local Attention#Lightweight Models#VQ-VAE2025년 10월 1일댓글 수 로딩 중
[논문리뷰] MetaEmbed: Scaling Multimodal Retrieval at Test-Time with Flexible Late InteractionXintao Chen이 arXiv에 게시한 'MetaEmbed: Scaling Multimodal Retrieval at Test-Time with Flexible Late Interaction' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Retrieval#Late Interaction#Meta Tokens#Matryoshka Representation Learning#Test-Time Scaling#Vision-Language Models#Dense Retrieval#Efficiency2025년 9월 23일댓글 수 로딩 중
[논문리뷰] FastFit: Accelerating Multi-Reference Virtual Try-On via Cacheable Diffusion ModelsZhen Wang이 arXiv에 게시한 'FastFit: Accelerating Multi-Reference Virtual Try-On via Cacheable Diffusion Models' 논문에 대한 자세한 리뷰입니다.#Review#Virtual Try-On#Diffusion Models#Cacheable Architecture#Multi-Reference#Semi-Attention#Efficiency#Image Synthesis2025년 9월 3일댓글 수 로딩 중
[논문리뷰] R-4B: Incentivizing General-Purpose Auto-Thinking Capability in MLLMs via Bi-Mode Annealing and Reinforce LearningHan Hu이 arXiv에 게시한 'R-4B: Incentivizing General-Purpose Auto-Thinking Capability in MLLMs via Bi-Mode Annealing and Reinforce Learning' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Large Language Models (MLLMs)#Auto-Thinking#Reinforcement Learning (RL)#Bi-mode Annealing#Bi-mode Policy Optimization (BPO)#General-Purpose AI#Reasoning#Efficiency2025년 9월 1일댓글 수 로딩 중
[논문리뷰] Less Is More: Training-Free Sparse Attention with Global Locality for Efficient ReasoningBaihong Yuan이 arXiv에 게시한 'Less Is More: Training-Free Sparse Attention with Global Locality for Efficient Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Sparse Attention#LLMs#Reasoning Tasks#Efficiency#Training-Free#Global Locality#KV Cache Optimization2025년 8월 12일댓글 수 로딩 중
[논문리뷰] Pruning the Unsurprising: Efficient Code Reasoning via First-Token SurprisalChengcheng Wan이 arXiv에 게시한 'Pruning the Unsurprising: Efficient Code Reasoning via First-Token Surprisal' 논문에 대한 자세한 리뷰입니다.#Review#Code Reasoning#CoT Compression#LLMs#Efficiency#Surprisal#Pruning#Fine-tuning#Large Reasoning Models2025년 8월 11일댓글 수 로딩 중