[논문리뷰] Watch Before You Answer: Learning from Visually Grounded Post-Training본 논문은 오직 Visually Grounded 질문만을 사용하여 모델을 post-training하는 VidGround 프레임워크를 제안한다. 저자들은 GPT-5-mini와 같은 강력한 언어 모델을 사용하여 텍스트만으로 답변 가능한 TA 질문을 필터링하고, 나머지 VG 질문만을 학습 데이터로 선별하였다.#Review#Vision-Language Models#Video Understanding#Post-Training#Linguistic Bias#Reinforcement Learning#Data Curation#Visually Grounded Reasoning2026년 4월 7일댓글 수 로딩 중
[논문리뷰] Vero: An Open RL Recipe for General Visual Reasoning저자들은 6개 범주를 아우르는 600K 샘플의 Vero-600K를 구축하고, 태스크별로 세분화된 보상 함수를 적용하는 GSPO 기반의 단일 단계 RL 학습을 수행한다 . 데이터 정제 과정에서 모델 기반의 문항 필터링과 정답 정규화를 통해 학습 품질을 극대화하였다.#Review#Vision-Language Models#Reinforcement Learning#Visual Reasoning#Multi-task Learning#Chain-of-Thought#Data Diversity#Reward Engineering2026년 4월 6일댓글 수 로딩 중
[논문리뷰] Less Detail, Better Answers: Degradation-Driven Prompting for VQAarXiv에 게시된 'Less Detail, Better Answers: Degradation-Driven Prompting for VQA' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Visual Question Answering#Degradation-Driven Prompting#Agentic Perception#Structural Bottleneck2026년 4월 6일댓글 수 로딩 중
[논문리뷰] CoME-VL: Scaling Complementary Multi-Encoder Vision-Language LearningHisham Cholakkal이 arXiv에 게시한 'CoME-VL: Scaling Complementary Multi-Encoder Vision-Language Learning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Multi-Encoder Fusion#Entropy-Guided Selection#Orthogonal Layer#RoPE#Visual Grounding#Multimodal Understanding2026년 4월 5일댓글 수 로딩 중
[논문리뷰] VOID: Video Object and Interaction Deletion본 연구는 CogVideoX 확산 모델을 기반으로, 물리적 인과 관계를 반영하는 카운터팩추얼 생성 모델을 구축하였습니다. 먼저 Kubric과 HUMOTO를 통해 객체 제거 전후의 물리적 역학 변화를 학습하고, VLM을 활용해 영상 내 영향받는 영역을 실시간으로 추론하여 Quadmask를 생성함으로써 모델의 생성 범위를 명확히 제한합니다.#Review#Video Object Removal#Counterfactual Reasoning#Video Diffusion Models#Interaction-Aware Masking#Vision-Language Models2026년 4월 2일댓글 수 로딩 중
[논문리뷰] Memory-Augmented Vision-Language Agents for Persistent and Semantically Consistent Object CaptioningarXiv에 게시된 'Memory-Augmented Vision-Language Agents for Persistent and Semantically Consistent Object Captioning' 논문에 대한 자세한 리뷰입니다.#Review#Embodied AI#Vision-Language Models#Episodic Memory#Semantic Consistency#Object Captioning#Data Association2026년 4월 2일댓글 수 로딩 중
[논문리뷰] LinguDistill: Recovering Linguistic Ability in Vision- Language Models via Selective Cross-Modal DistillationarXiv에 게시된 'LinguDistill: Recovering Linguistic Ability in Vision- Language Models via Selective Cross-Modal Distillation' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Knowledge Distillation#Linguistic Ability#KV-cache Sharing#Multimodal Adaptation#Catastrophic Forgetting2026년 4월 2일댓글 수 로딩 중
[논문리뷰] Think, Act, Build: An Agentic Framework with Vision Language Models for Zero-Shot 3D Visual Grounding본 논문은 3D-VG 작업을 'Think(추론)', 'Act(도구 호출)', 'Build(재구성)' 단계로 세분화한 TAB 프레임워크를 제안합니다 . TAB은 고정된 파이프라인 대신, 전문적인 3D-VG Skill blueprint에 따라 VLM 에이전트가 능동적으로 visual tool을 호출하여 타겟을 추적하고 마스크를 생성합니다.#Review#3D Visual Grounding#Vision-Language Models#Agentic Framework#RGB-D#Zero-Shot#Geometric Reconstruction2026년 4월 1일댓글 수 로딩 중
[논문리뷰] Benchmarking and Mechanistic Analysis of Vision-Language Models for Cross-Depiction Assembly Instruction AlignmentYu Xiao이 arXiv에 게시한 'Benchmarking and Mechanistic Analysis of Vision-Language Models for Cross-Depiction Assembly Instruction Alignment' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Cross-depiction Alignment#Assembly Guidance#Diagram-to-video Matching#Mechanistic Analysis2026년 4월 1일댓글 수 로딩 중
[논문리뷰] SeGPruner: Semantic-Geometric Visual Token Pruner for 3D Question AnsweringarXiv에 게시된 'SeGPruner: Semantic-Geometric Visual Token Pruner for 3D Question Answering' 논문에 대한 자세한 리뷰입니다.#Review#3D Question Answering#Vision-Language Models#Visual Token Pruning#Semantic-Awareness#Geometry-Guided2026년 3월 31일댓글 수 로딩 중
[논문리뷰] MolmoPoint: Better Pointing for VLMs with Grounding TokensYue Yang이 arXiv에 게시한 'MolmoPoint: Better Pointing for VLMs with Grounding Tokens' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Grounding Tokens#Pointing#GUI Grounding#Video Grounding#Sample Efficiency2026년 3월 30일댓글 수 로딩 중
[논문리뷰] Make Geometry Matter for Spatial ReasoningarXiv에 게시된 'Make Geometry Matter for Spatial Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Spatial Reasoning#Geometry Tokens#Token Masking#Gated Routing2026년 3월 30일댓글 수 로딩 중
[논문리뷰] ThinkJEPA: Empowering Latent World Models with Large Vision-Language Reasoning ModelMingfei Chen이 arXiv에 게시한 'ThinkJEPA: Empowering Latent World Models with Large Vision-Language Reasoning Model' 논문에 대한 자세한 리뷰입니다.#Review#Latent World Models#Vision-Language Models#Predictive Representation Learning#Dual-Temporal Sampling#Semantic Guidance#Trajectory Prediction#Egocentric Video#JEPA2026년 3월 24일댓글 수 로딩 중
[논문리뷰] PEARL: Personalized Streaming Video Understanding ModelarXiv에 게시된 'PEARL: Personalized Streaming Video Understanding Model' 논문에 대한 자세한 리뷰입니다.#Review#Personalized Streaming Video Understanding#PSVU#PEARL-Bench#Dual-grained Memory System#Concept-aware Retrieval Algorithm#Vision-Language Models#Real-time AI Assistants2026년 3월 24일댓글 수 로딩 중
[논문리뷰] MinerU-Diffusion: Rethinking Document OCR as Inverse Rendering via Diffusion DecodingWentao Zhang이 arXiv에 게시한 'MinerU-Diffusion: Rethinking Document OCR as Inverse Rendering via Diffusion Decoding' 논문에 대한 자세한 리뷰입니다.#Review#Document OCR#Diffusion Models#Inverse Rendering#Parallel Decoding#Block-Attention#Curriculum Learning#Vision-Language Models2026년 3월 24일댓글 수 로딩 중
[논문리뷰] SEM: Sparse Embedding Modulation for Post-Hoc Debiasing of Vision-Language ModelsElisa Ricci이 arXiv에 게시한 'SEM: Sparse Embedding Modulation for Post-Hoc Debiasing of Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#CLIP#Debiasing#Sparse Autoencoder#Post-Hoc#Zero-Shot#Feature Disentanglement#Bias Mitigation2026년 3월 23일댓글 수 로딩 중
[논문리뷰] WorldAgents: Can Foundation Image Models be Agents for 3D World Models?Matthias Nießner이 arXiv에 게시한 'WorldAgents: Can Foundation Image Models be Agents for 3D World Models?' 논문에 대한 자세한 리뷰입니다.#Review#3D World Generation#Foundation Models#Multi-Agent System#Vision-Language Models#3D Consistency#Gaussian Splatting2026년 3월 22일댓글 수 로딩 중
[논문리뷰] HopChain: Multi-Hop Data Synthesis for Generalizable Vision-Language ReasoningarXiv에 게시된 'HopChain: Multi-Hop Data Synthesis for Generalizable Vision-Language Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Multi-Hop Reasoning#Data Synthesis#Reinforcement Learning with Verifiable Rewards#Chain-of-Thought#Generalizable Reasoning#Perception-level Hops#Instance-chain Hops2026년 3월 22일댓글 수 로딩 중
[논문리뷰] Loc3R-VLM: Language-based Localization and 3D Reasoning with Vision-Language ModelsarXiv에 게시된 'Loc3R-VLM: Language-based Localization and 3D Reasoning with Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#3D Reasoning#Language-based Localization#Spatial Understanding#Situation Modeling#Global Layout Reconstruction#Monocular Video2026년 3월 19일댓글 수 로딩 중
[논문리뷰] Multimodal OCR: Parse Anything from DocumentsLiang Xin이 arXiv에 게시한 'Multimodal OCR: Parse Anything from Documents' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal OCR#MOCR#Document Parsing#Structured Graphics#Image-to-SVG#Vision-Language Models#OCR Arena2026년 3월 15일댓글 수 로딩 중
[논문리뷰] EmboAlign: Aligning Video Generation with Compositional Constraints for Zero-Shot ManipulationarXiv에 게시된 'EmboAlign: Aligning Video Generation with Compositional Constraints for Zero-Shot Manipulation' 논문에 대한 자세한 리뷰입니다.#Review#Zero-Shot Manipulation#Video Generation Models#Vision-Language Models#Compositional Constraints#Robotics#Trajectory Optimization#Real-Robot Control2026년 3월 11일댓글 수 로딩 중
[논문리뷰] VLM-SubtleBench: How Far Are VLMs from Human-Level Subtle Comparative Reasoning?arXiv에 게시된 'VLM-SubtleBench: How Far Are VLMs from Human-Level Subtle Comparative Reasoning?' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Comparative Reasoning#Subtle Differences#Benchmark#Multi-modal AI#Image Comparison#VQA#Fine-grained Analysis2026년 3월 10일댓글 수 로딩 중
[논문리뷰] Stepping VLMs onto the Court: Benchmarking Spatial Intelligence in SportsYuqing Shao이 arXiv에 게시한 'Stepping VLMs onto the Court: Benchmarking Spatial Intelligence in Sports' 논문에 대한 자세한 리뷰입니다.#Review#Spatial Intelligence#Vision-Language Models#Sports Analytics#3D Reconstruction#Dataset#Benchmark#Racket Sports#Human-Centric AI2026년 3월 10일댓글 수 로딩 중
[논문리뷰] MM-Zero: Self-Evolving Multi-Model Vision Language Models From Zero DataarXiv에 게시된 'MM-Zero: Self-Evolving Multi-Model Vision Language Models From Zero Data' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Self-Evolution#Reinforcement Learning#Zero-Data#Multi-Agent Systems#Code Generation#Synthetic Data2026년 3월 10일댓글 수 로딩 중
[논문리뷰] NaviDriveVLM: Decoupling High-Level Reasoning and Motion Planning for Autonomous DrivingarXiv에 게시된 'NaviDriveVLM: Decoupling High-Level Reasoning and Motion Planning for Autonomous Driving' 논문에 대한 자세한 리뷰입니다.#Review#Autonomous Driving#Vision-Language Models#Motion Planning#High-Level Reasoning#Decoupled Architecture#Supervised Fine-tuning#NuScenes Benchmark2026년 3월 9일댓글 수 로딩 중
[논문리뷰] FVG-PT: Adaptive Foreground View-Guided Prompt Tuning for Vision-Language ModelsarXiv에 게시된 'FVG-PT: Adaptive Foreground View-Guided Prompt Tuning for Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Prompt Tuning#Foreground Attention#Adaptive Learning#Generalization#Base-to-New Trade-off#Attention Guidance2026년 3월 9일댓글 수 로딩 중
[논문리뷰] Large Multimodal Models as General In-Context ClassifiersarXiv에 게시된 'Large Multimodal Models as General In-Context Classifiers' 논문에 대한 자세한 리뷰입니다.#Review#Large Multimodal Models#In-Context Learning#Image Classification#Open-World Classification#Zero-Shot Learning#Vision-Language Models#CLIP2026년 3월 5일댓글 수 로딩 중
[논문리뷰] Phi-4-reasoning-vision-15B Technical ReportarXiv에 게시된 'Phi-4-reasoning-vision-15B Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLMs#Efficient AI#Reasoning Models#Vision-Language Models#Data Curation#Mid-Fusion#High-Resolution Vision#Small Language Models2026년 3월 4일댓글 수 로딩 중
[논문리뷰] UniG2U-Bench: Do Unified Models Advance Multimodal Understanding?Xiaoyu Chen이 arXiv에 게시한 'UniG2U-Bench: Do Unified Models Advance Multimodal Understanding?' 논문에 대한 자세한 리뷰입니다.#Review#Unified Multimodal Models#Multimodal Understanding#Generation-to-Understanding#Benchmark#Vision-Language Models#Generate-then-Answer#Model Evaluation2026년 3월 3일댓글 수 로딩 중
[논문리뷰] Beyond Language Modeling: An Exploration of Multimodal PretrainingarXiv에 게시된 'Beyond Language Modeling: An Exploration of Multimodal Pretraining' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Pretraining#Vision-Language Models#Mixture-of-Experts (MoE)#Representation Autoencoders (RAE)#World Modeling#Scaling Laws#Diffusion Models#Unified Architectures2026년 3월 3일댓글 수 로딩 중
[논문리뷰] OmniLottie: Generating Vector Animations via Parameterized Lottie TokensarXiv에 게시된 'OmniLottie: Generating Vector Animations via Parameterized Lottie Tokens' 논문에 대한 자세한 리뷰입니다.#Review#Vector Animation Generation#Lottie#Multimodal Instructions#Tokenizer#Vision-Language Models#Generative AI#Dataset2026년 3월 2일댓글 수 로딩 중
[논문리뷰] Half-Truths Break Similarity-Based RetrievalSeong Joon Oh이 arXiv에 게시한 'Half-Truths Break Similarity-Based Retrieval' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#CLIP#Compositional Reasoning#Image-Text Retrieval#Fine-tuning#Hard Negatives#Unit-level Supervision#Half-Truths2026년 3월 2일댓글 수 로딩 중
[논문리뷰] Compositional Generalization Requires Linear, Orthogonal Representations in Vision Embedding ModelsSeong Joon Oh이 arXiv에 게시한 'Compositional Generalization Requires Linear, Orthogonal Representations in Vision Embedding Models' 논문에 대한 자세한 리뷰입니다.#Review#Compositional Generalization#Vision-Language Models#Linear Representations#Orthogonal Representations#Neural Networks#Embedding Geometry#CLIP2026년 3월 1일댓글 수 로딩 중
[논문리뷰] From Perception to Action: An Interactive Benchmark for Vision ReasoningZhiqiang Hu이 arXiv에 게시한 'From Perception to Action: An Interactive Benchmark for Vision Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Physical Reasoning#Interactive AI#3D Benchmark#Mechanical Puzzles#Spatial Packing#Embodied AI2026년 2월 24일댓글 수 로딩 중
[논문리뷰] TOPReward: Token Probabilities as Hidden Zero-Shot Rewards for RoboticsarXiv에 게시된 'TOPReward: Token Probabilities as Hidden Zero-Shot Rewards for Robotics' 논문에 대한 자세한 리뷰입니다.#Review#Robotics#Reward Modeling#Vision-Language Models#Zero-Shot Learning#Token Probabilities#Progress Estimation#Behavior Cloning#Manipulation2026년 2월 23일댓글 수 로딩 중
[논문리뷰] Mobile-O: Unified Multimodal Understanding and Generation on Mobile DevicearXiv에 게시된 'Mobile-O: Unified Multimodal Understanding and Generation on Mobile Device' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal AI#Vision-Language Models#Diffusion Models#Mobile Devices#Edge Computing#Model Efficiency#Unified Architecture#Real-time Inference2026년 2월 23일댓글 수 로딩 중
[논문리뷰] Selective Training for Large Vision Language Models via Visual Information GainarXiv에 게시된 'Selective Training for Large Vision Language Models via Visual Information Gain' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Visual Grounding#Language Bias Mitigation#Selective Training#Perplexity Metric#Data Efficiency#Multimodal AI2026년 2월 22일댓글 수 로딩 중
[논문리뷰] Visual Persuasion: What Influences Decisions of Vision-Language Models?Nikhil Singh이 arXiv에 게시한 'Visual Persuasion: What Influences Decisions of Vision-Language Models?' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Visual Persuasion#Prompt Optimization#Image Generation#AI Agent Behavior#Interpretability#Behavioral Evaluation2026년 2월 17일댓글 수 로딩 중
[논문리뷰] DeepImageSearch: Benchmarking Multimodal Agents for Context-Aware Image Retrieval in Visual HistoriesarXiv에 게시된 'DeepImageSearch: Benchmarking Multimodal Agents for Context-Aware Image Retrieval in Visual Histories' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Agents#Image Retrieval#Context-Aware#Visual Histories#Benchmarking#Vision-Language Models#Agentic AI2026년 2월 16일댓글 수 로딩 중
[논문리뷰] What does RL improve for Visual Reasoning? A Frankenstein-Style AnalysisarXiv에 게시된 'What does RL improve for Visual Reasoning? A Frankenstein-Style Analysis' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Visual Reasoning#Vision-Language Models#Causal Probing#Model Merging#Parameter Analysis#Transformer Layers#Functional Localization2026년 2월 15일댓글 수 로딩 중
[논문리뷰] GeoAgent: Learning to Geolocate Everywhere with Reinforced Geographic CharacteristicsMingMing Cheng이 arXiv에 게시한 'GeoAgent: Learning to Geolocate Everywhere with Reinforced Geographic Characteristics' 논문에 대한 자세한 리뷰입니다.#Review#Geolocation#Reinforcement Learning#Vision-Language Models#Chain-of-Thought#Geospatial AI#Dataset#Reward Function2026년 2월 15일댓글 수 로딩 중
[논문리뷰] ScalSelect: Scalable Training-Free Multimodal Data Selection for Efficient Visual Instruction TuningarXiv에 게시된 'ScalSelect: Scalable Training-Free Multimodal Data Selection for Efficient Visual Instruction Tuning' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Data Selection#Visual Instruction Tuning#Training-Free#Scalability#Subspace Learning#Vision-Language Models#Attention Mechanism2026년 2월 12일댓글 수 로딩 중
[논문리뷰] Adapting Vision-Language Models for E-commerce Understanding at ScalearXiv에 게시된 'Adapting Vision-Language Models for E-commerce Understanding at Scale' 논문에 대한 자세한 리뷰입니다.#Review#E-commerce#Vision-Language Models#Multimodal Understanding#Instruction Tuning#Attribute Extraction#Fine-tuning#Benchmarking#LLMs2026년 2월 12일댓글 수 로딩 중
[논문리뷰] P1-VL: Bridging Visual Perception and Scientific Reasoning in Physics OlympiadsarXiv에 게시된 'P1-VL: Bridging Visual Perception and Scientific Reasoning in Physics Olympiads' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Reinforcement Learning#Curriculum Learning#Physics Olympiads#Scientific Reasoning#Agentic AI#Multimodal AI#Physics2026년 2월 10일댓글 수 로딩 중
[논문리뷰] VLS: Steering Pretrained Robot Policies via Vision-Language ModelsarXiv에 게시된 'VLS: Steering Pretrained Robot Policies via Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Robot Learning#Vision-Language Models#Policy Steering#Inference-Time Adaptation#Out-of-Distribution Generalization#Diffusion Models#Generative Policies2026년 2월 4일댓글 수 로딩 중
[논문리뷰] EgoActor: Grounding Task Planning into Spatial-aware Egocentric Actions for Humanoid Robots via Visual-Language ModelsZiyi Bai이 arXiv에 게시한 'EgoActor: Grounding Task Planning into Spatial-aware Egocentric Actions for Humanoid Robots via Visual-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Humanoid Robots#Vision-Language Models#Task Planning#Egocentric Control#Mobile Manipulation#Active Perception#Human-Robot Interaction#Real-World Deployment2026년 2월 4일댓글 수 로딩 중
[논문리뷰] PISCES: Annotation-free Text-to-Video Post-Training via Optimal Transport-Aligned RewardsarXiv에 게시된 'PISCES: Annotation-free Text-to-Video Post-Training via Optimal Transport-Aligned Rewards' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Video Generation#Post-Training#Optimal Transport#Reward Modeling#Annotation-free#Vision-Language Models#Diffusion Models2026년 2월 2일댓글 수 로딩 중
[논문리뷰] Kimi K2.5: Visual Agentic IntelligencearXiv에 게시된 'Kimi K2.5: Visual Agentic Intelligence' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal AI#Agentic Intelligence#Vision-Language Models#Parallel Agent Orchestration#Reinforcement Learning#Joint Optimization#Visual Reasoning#Software Engineering2026년 2월 2일댓글 수 로딩 중
[논문리뷰] VTC-R1: Vision-Text Compression for Efficient Long-Context ReasoningarXiv에 게시된 'VTC-R1: Vision-Text Compression for Efficient Long-Context Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Text Compression#Long-Context Reasoning#LLM Efficiency#Vision-Language Models#Iterative Reasoning#Mathematical Problem Solving#Inference Speedup2026년 1월 29일댓글 수 로딩 중
[논문리뷰] OCRVerse: Towards Holistic OCR in End-to-End Vision-Language ModelsLiming Zheng이 arXiv에 게시한 'OCRVerse: Towards Holistic OCR in End-to-End Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Holistic OCR#Vision-Language Models#Multi-domain Training#Text-centric OCR#Vision-centric OCR#SFT-RL#Code Generation#Document Understanding2026년 1월 29일댓글 수 로딩 중
[논문리뷰] ConceptMoE: Adaptive Token-to-Concept Compression for Implicit Compute AllocationarXiv에 게시된 'ConceptMoE: Adaptive Token-to-Concept Compression for Implicit Compute Allocation' 논문에 대한 자세한 리뷰입니다.#Review#MoE#LLMs#Adaptive Compression#Token Merging#Compute Allocation#Efficiency#Vision-Language Models#Continual Training2026년 1월 29일댓글 수 로딩 중
[논문리뷰] STEP3-VL-10B Technical ReportarXiv에 게시된 'STEP3-VL-10B Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Large Language Models#Vision-Language Models#Reinforcement Learning#Parallel Coordinated Reasoning#Model Efficiency#Foundation Models#Pre-training#Post-training2026년 1월 15일댓글 수 로딩 중
[논문리뷰] Molmo2: Open Weights and Data for Vision-Language Models with Video Understanding and GroundingMohammadreza Salehi이 arXiv에 게시한 'Molmo2: Open Weights and Data for Vision-Language Models with Video Understanding and Grounding' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Video Understanding#Grounding#Open Weights#Open Data#Multimodal AI#Object Tracking#Dense Captioning2026년 1월 15일댓글 수 로딩 중
[논문리뷰] Action100M: A Large-scale Video Action DatasetarXiv에 게시된 'Action100M: A Large-scale Video Action Dataset' 논문에 대한 자세한 리뷰입니다.#Review#Large-scale Dataset#Video Action Recognition#Open-Vocabulary#Temporal Segmentation#Vision-Language Models#Zero-shot Learning#Data Curation#Self-Refine2026년 1월 15일댓글 수 로딩 중
[논문리뷰] OpenVoxel: Training-Free Grouping and Captioning Voxels for Open-Vocabulary 3D Scene UnderstandingarXiv에 게시된 'OpenVoxel: Training-Free Grouping and Captioning Voxels for Open-Vocabulary 3D Scene Understanding' 논문에 대한 자세한 리뷰입니다.#Review#3D Scene Understanding#Open-Vocabulary Segmentation#Referring Expression Segmentation#Training-Free#Voxel Grouping#Vision-Language Models#Multi-modal Large Language Models#Sparse Voxel Rasterization2026년 1월 14일댓글 수 로딩 중
[논문리뷰] ShowUI-π: Flow-based Generative Models as GUI Dexterous HandsarXiv에 게시된 'ShowUI-π: Flow-based Generative Models as GUI Dexterous Hands' 논문에 대한 자세한 리뷰입니다.#Review#GUI Automation#Flow-based Generative Models#Continuous Control#Vision-Language Models#Human-Computer Interaction#ScreenDrag Benchmark#Dexterous Manipulation2026년 1월 13일댓글 수 로딩 중
[논문리뷰] What Users Leave Unsaid: Under-Specified Queries Limit Vision-Language ModelsarXiv에 게시된 'What Users Leave Unsaid: Under-Specified Queries Limit Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Under-specified Queries#Multimodal Benchmark#HAERAE-Vision#Query Explicitation#Retrieval Augmentation#Cultural Knowledge#Korean QA2026년 1월 12일댓글 수 로딩 중
[논문리뷰] Few Tokens Matter: Entropy Guided Attacks on Vision-Language ModelsarXiv에 게시된 'Few Tokens Matter: Entropy Guided Attacks on Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Adversarial Attacks#Entropy-Guided Attacks#Token Vulnerability#Harmful Content#Cross-Model Transferability#Autoregressive Generation2026년 1월 8일댓글 수 로딩 중
[논문리뷰] SenseNova-MARS: Empowering Multimodal Agentic Reasoning and Search via Reinforcement LearningarXiv에 게시된 'SenseNova-MARS: Empowering Multimodal Agentic Reasoning and Search via Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Agents#Reinforcement Learning#Vision-Language Models#Tool Use#Agentic Reasoning#Image Search#HR-MMSearch#BN-GSPO2026년 1월 4일댓글 수 로딩 중
[논문리뷰] Dream-VL & Dream-VLA: Open Vision-Language and Vision-Language-Action Models with Diffusion Language Model BackbonearXiv에 게시된 'Dream-VL & Dream-VLA: Open Vision-Language and Vision-Language-Action Models with Diffusion Language Model Backbone' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Vision-Language Models#Vision-Language-Action Models#Robotics#Multimodal AI#Action Planning#Long-Horizon Planning#Bidirectional Attention2025년 12월 29일댓글 수 로딩 중
[논문리뷰] SVBench: Evaluation of Video Generation Models on Social ReasoningXiaojie Xu이 arXiv에 게시한 'SVBench: Evaluation of Video Generation Models on Social Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Social Reasoning#Benchmark#Evaluation#Agent-based Pipeline#Vision-Language Models#Social Cognition2025년 12월 28일댓글 수 로딩 중
[논문리뷰] Learning to Reason in 4D: Dynamic Spatial Understanding for Vision Language ModelsarXiv에 게시된 'Learning to Reason in 4D: Dynamic Spatial Understanding for Vision Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Dynamic Spatial Reasoning#Vision-Language Models#4D Understanding#Automated Data Generation#Geometry Selection Module#Video Analysis#Multimodal AI2025년 12월 24일댓글 수 로딩 중
[논문리뷰] QuantiPhy: A Quantitative Benchmark Evaluating Physical Reasoning Abilities of Vision-Language ModelsarXiv에 게시된 'QuantiPhy: A Quantitative Benchmark Evaluating Physical Reasoning Abilities of Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Physical Reasoning#Quantitative Benchmark#Kinematics#Mean Relative Accuracy#Video-Text#Embodied AI2025년 12월 23일댓글 수 로딩 중
[논문리뷰] RePlan: Reasoning-guided Region Planning for Complex Instruction-based Image EditingYuqi Liu이 arXiv에 게시한 'RePlan: Reasoning-guided Region Planning for Complex Instruction-based Image Editing' 논문에 대한 자세한 리뷰입니다.#Review#Image Editing#Vision-Language Models#Diffusion Models#Region-aligned Guidance#Reinforcement Learning#Instruction-Visual Complexity#Attention Mechanism2025년 12월 18일댓글 수 로딩 중
[논문리뷰] N3D-VLM: Native 3D Grounding Enables Accurate Spatial Reasoning in Vision-Language ModelsarXiv에 게시된 'N3D-VLM: Native 3D Grounding Enables Accurate Spatial Reasoning in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#3D Grounding#Spatial Reasoning#Vision-Language Models#Depth Estimation#3D Object Detection#Chain-of-Thought#Data Generation#Multimodal AI2025년 12월 18일댓글 수 로딩 중
[논문리뷰] AdaTooler-V: Adaptive Tool-Use for Images and VideosZhixun Li이 arXiv에 게시한 'AdaTooler-V: Adaptive Tool-Use for Images and Videos' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLM#Adaptive Tool-Use#Reinforcement Learning#Chain-of-Thought#Vision-Language Models#Visual Reasoning#AT-GRPO2025년 12월 18일댓글 수 로딩 중
[논문리뷰] From Macro to Micro: Benchmarking Microscopic Spatial Intelligence on Molecules via Vision-Language ModelsarXiv에 게시된 'From Macro to Micro: Benchmarking Microscopic Spatial Intelligence on Molecules via Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Microscopic Spatial Intelligence#Molecular Structures#Benchmarking#PDBbind Dataset#Spatial Reasoning#Drug Discovery2025년 12월 11일댓글 수 로딩 중
[논문리뷰] UniUGP: Unifying Understanding, Generation, and Planing For End-to-end Autonomous DrivingarXiv에 게시된 'UniUGP: Unifying Understanding, Generation, and Planing For End-to-end Autonomous Driving' 논문에 대한 자세한 리뷰입니다.#Review#Autonomous Driving#End-to-End Learning#Vision-Language Models#World Model#Chain-of-Thought#Video Generation#Trajectory Planning#Multimodal Learning2025년 12월 10일댓글 수 로딩 중
[논문리뷰] Pay Less Attention to Function Words for Free Robustness of Vision-Language ModelsarXiv에 게시된 'Pay Less Attention to Function Words for Free Robustness of Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Adversarial Robustness#Function Words#Cross-Attention#Adversarial Attacks#Differential Attention#Vision-Language Alignment2025년 12월 10일댓글 수 로딩 중
[논문리뷰] InfiniteVL: Synergizing Linear and Sparse Attention for Highly-Efficient, Unlimited-Input Vision-Language ModelsarXiv에 게시된 'InfiniteVL: Synergizing Linear and Sparse Attention for Highly-Efficient, Unlimited-Input Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Linear Attention#Sliding Window Attention#Gated DeltaNet#Long-Context Understanding#Efficiency#Hybrid Architecture#Multimodal Learning2025년 12월 10일댓글 수 로딩 중
[논문리뷰] BrainExplore: Large-Scale Discovery of Interpretable Visual Representations in the Human Braintamarott이 arXiv에 게시한 'BrainExplore: Large-Scale Discovery of Interpretable Visual Representations in the Human Brain' 논문에 대한 자세한 리뷰입니다.#Review#fMRI#Brain Mapping#Visual Representation#Interpretability#Sparse Autoencoders#Vision-Language Models#Unsupervised Learning#Neuroscience2025년 12월 10일댓글 수 로딩 중
[논문리뷰] Relational Visual SimilarityJing Shi이 arXiv에 게시한 'Relational Visual Similarity' 논문에 대한 자세한 리뷰입니다.#Review#Relational Similarity#Visual Similarity#Vision-Language Models#Anonymous Captioning#Image Retrieval#Analogical Reasoning#Dataset Curation2025년 12월 8일댓글 수 로딩 중
[논문리뷰] Decouple to Generalize: Context-First Self-Evolving Learning for Data-Scarce Vision-Language ReasoningarXiv에 게시된 'Decouple to Generalize: Context-First Self-Evolving Learning for Data-Scarce Vision-Language Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Reinforcement Learning#Self-Evolving Learning#Data-Scarce Domains#Context-First Learning#Reward Hacking Mitigation#Multimodal Reasoning#Curriculum Learning2025년 12월 8일댓글 수 로딩 중
[논문리뷰] Self-Improving VLM Judges Without Human AnnotationsarXiv에 게시된 'Self-Improving VLM Judges Without Human Annotations' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Self-Improvement#Judge Models#Synthetic Data Generation#Iterative Refinement#Reward Modeling#Human-free Alignment2025년 12월 7일댓글 수 로딩 중
[논문리뷰] ReVSeg: Incentivizing the Reasoning Chain for Video Segmentation with Reinforcement LearningShengju Qian이 arXiv에 게시한 'ReVSeg: Incentivizing the Reasoning Chain for Video Segmentation with Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Video Object Segmentation#Reinforcement Learning#Vision-Language Models#Reasoning Chain#Explainable AI#Multi-step Reasoning2025년 12월 7일댓글 수 로딩 중
[논문리뷰] ProPhy: Progressive Physical Alignment for Dynamic World SimulationYuhao Cheng이 arXiv에 게시한 'ProPhy: Progressive Physical Alignment for Dynamic World Simulation' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Physics-aware#World Simulation#Progressive Alignment#Mixture-of-Experts#Vision-Language Models#Token-level Routing2025년 12월 7일댓글 수 로딩 중
[논문리뷰] AlignBench: Benchmarking Fine-Grained Image-Text Alignment with Synthetic Image-Caption PairsTosho Hirasawa이 arXiv에 게시한 'AlignBench: Benchmarking Fine-Grained Image-Text Alignment with Synthetic Image-Caption Pairs' 논문에 대한 자세한 리뷰입니다.#Review#Image-Text Alignment#Multimodal Benchmarking#Hallucination Detection#Vision-Language Models#Synthetic Data Generation#Fine-Grained Analysis#Captioning2025년 12월 3일댓글 수 로딩 중
[논문리뷰] TRivia: Self-supervised Fine-tuning of Vision-Language Models for Table RecognitionZichen Wen이 arXiv에 게시한 'TRivia: Self-supervised Fine-tuning of Vision-Language Models for Table Recognition' 논문에 대한 자세한 리뷰입니다.#Review#Table Recognition#Self-supervised Learning#Vision-Language Models#Reinforcement Learning#Question Answering#Data Augmentation#GRPO2025년 12월 2일댓글 수 로딩 중
[논문리뷰] CodeV: Code with Images for Faithful Visual Reasoning via Tool-Aware Policy OptimizationarXiv에 게시된 'CodeV: Code with Images for Faithful Visual Reasoning via Tool-Aware Policy Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Agentic Reasoning#Tool Use#Reinforcement Learning#Faithfulness Evaluation#Policy Optimization#Visual Search#Code Generation2025년 12월 2일댓글 수 로딩 중
[논문리뷰] Structured Extraction from Business Process Diagrams Using Vision-Language ModelsBarry Devereux이 arXiv에 게시한 'Structured Extraction from Business Process Diagrams Using Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#BPMN Extraction#Structured Information Extraction#OCR Enrichment#Prompt Engineering#Diagram Understanding#Business Process Management2025년 12월 1일댓글 수 로딩 중
[논문리뷰] Seeing the Wind from a Falling LeafEmily Yue-Ting Jia이 arXiv에 게시한 'Seeing the Wind from a Falling Leaf' 논문에 대한 자세한 리뷰입니다.#Review#Inverse Graphics#Differentiable Physics#Force Estimation#Video Generation#Material Point Method#3D Gaussians#Spatio-temporal Modeling#Vision-Language Models2025년 12월 1일댓글 수 로딩 중
[논문리뷰] Asking like Socrates: Socrates helps VLMs understand remote sensing imagesXinran He이 arXiv에 게시한 'Asking like Socrates: Socrates helps VLMs understand remote sensing images' 논문에 대한 자세한 리뷰입니다.#Review#Remote Sensing#Vision-Language Models#Iterative Reasoning#Evidence-Seeking#Socratic Method#Reinforcement Learning#Multi-Agent System#VQA#Grounding2025년 12월 1일댓글 수 로딩 중
[논문리뷰] World in a Frame: Understanding Culture Mixing as a New Challenge for Vision-Language ModelsNa Min An이 arXiv에 게시한 'World in a Frame: Understanding Culture Mixing as a New Challenge for Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Culture Mixing#VQA#Synthetic Data Generation#Multicultural Understanding#Model Robustness#Fine-tuning#Cultural Bias2025년 11월 30일댓글 수 로딩 중
[논문리뷰] Test-time scaling of diffusions with flow mapsSanja Fidler이 arXiv에 게시한 'Test-time scaling of diffusions with flow maps' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Flow Maps#Test-time Adaptation#Reward Guidance#Generative Models#SMC#Vision-Language Models2025년 11월 30일댓글 수 로딩 중
[논문리뷰] MIRA: Multimodal Iterative Reasoning Agent for Image EditingJiebo Luo이 arXiv에 게시한 'MIRA: Multimodal Iterative Reasoning Agent for Image Editing' 논문에 대한 자세한 리뷰입니다.#Review#Image Editing#Multimodal AI#Iterative Reasoning#Agentic AI#Reinforcement Learning#Diffusion Models#Vision-Language Models#Instruction Following2025년 11월 27일댓글 수 로딩 중
[논문리뷰] Yo'City: Personalized and Boundless 3D Realistic City Scene Generation via Self-Critic ExpansionZhifei Yang이 arXiv에 게시한 'Yo'City: Personalized and Boundless 3D Realistic City Scene Generation via Self-Critic Expansion' 논문에 대한 자세한 리뷰입니다.#Review#3D City Generation#Generative AI#Large Language Models#Vision-Language Models#Multi-Agent Framework#Self-Critic Learning#Scene Graph#Text-to-3D2025년 11월 25일댓글 수 로딩 중
[논문리뷰] Agent0-VL: Exploring Self-Evolving Agent for Tool-Integrated Vision-Language ReasoningarXiv에 게시된 'Agent0-VL: Exploring Self-Evolving Agent for Tool-Integrated Vision-Language Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Self-Evolving Agent#Vision-Language Models#Tool-Integrated Reasoning#Reinforcement Learning#Self-Correction#Multimodal AI#Generative AI2025년 11월 25일댓글 수 로딩 중
[논문리뷰] MASS: Motion-Aware Spatial-Temporal Grounding for Physics Reasoning and Comprehension in Vision-Language ModelsarXiv에 게시된 'MASS: Motion-Aware Spatial-Temporal Grounding for Physics Reasoning and Comprehension in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Physics Reasoning#Motion Tracking#Spatial-Temporal Grounding#Video QA#AIGC Analysis#Reinforcement Learning2025년 11월 24일댓글 수 로딩 중
[논문리뷰] VisMem: Latent Vision Memory Unlocks Potential of Vision-Language ModelsYudong Zhang이 arXiv에 게시한 'VisMem: Latent Vision Memory Unlocks Potential of Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Latent Memory#Cognitive Memory#Visual Grounding#Short-term Memory#Long-term Memory#Reinforcement Learning2025년 11월 23일댓글 수 로딩 중
[논문리뷰] VisPlay: Self-Evolving Vision-Language Models from ImagesarXiv에 게시된 'VisPlay: Self-Evolving Vision-Language Models from Images' 논문에 대한 자세한 리뷰입니다.#Review#Self-Evolving#Vision-Language Models#Reinforcement Learning#Self-Play#Unlabeled Data#Multimodal Reasoning#Group Relative Policy Optimization#Hallucination Mitigation2025년 11월 19일댓글 수 로딩 중
[논문리뷰] Instruction-Guided Lesion Segmentation for Chest X-rays with Automatically Generated Large-Scale DatasetarXiv에 게시된 'Instruction-Guided Lesion Segmentation for Chest X-rays with Automatically Generated Large-Scale Dataset' 논문에 대한 자세한 리뷰입니다.#Review#Medical Imaging#Chest X-ray#Lesion Segmentation#Vision-Language Models#Instruction Following#Data Generation#MIMIC-CXR2025년 11월 19일댓글 수 로딩 중
[논문리뷰] Test-Time Spectrum-Aware Latent Steering for Zero-Shot Generalization in Vision-Language ModelsarXiv에 게시된 'Test-Time Spectrum-Aware Latent Steering for Zero-Shot Generalization in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Test-Time Adaptation#Zero-Shot Generalization#Spectral Decomposition#Latent Space Steering#SVD#Out-of-Distribution2025년 11월 17일댓글 수 로딩 중
[논문리뷰] WebVIA: A Web-based Vision-Language Agentic Framework for Interactive and Verifiable UI-to-Code GenerationarXiv에 게시된 'WebVIA: A Web-based Vision-Language Agentic Framework for Interactive and Verifiable UI-to-Code Generation' 논문에 대한 자세한 리뷰입니다.#Review#UI-to-Code#Vision-Language Models#Agentic Framework#Interactive UI#Web Automation#Code Generation#UI Verification#Supervised Fine-Tuning2025년 11월 12일댓글 수 로딩 중
[논문리뷰] Grounding Computer Use Agents on Human DemonstrationsarXiv에 게시된 'Grounding Computer Use Agents on Human Demonstrations' 논문에 대한 자세한 리뷰입니다.#Review#Computer Use Agents#UI Grounding#Desktop Applications#Human Demonstrations#Large-Scale Dataset#Vision-Language Models#Supervised Fine-tuning#Reinforcement Learning2025년 11월 11일댓글 수 로딩 중
[논문리뷰] Long Grounded Thoughts: Distilling Compositional Visual Reasoning Chains at ScalearXiv에 게시된 'Long Grounded Thoughts: Distilling Compositional Visual Reasoning Chains at Scale' 논문에 대한 자세한 리뷰입니다.#Review#Visual Reasoning#Compositional AI#Vision-Language Models#Data Synthesis#Chain-of-Thought#Reinforcement Learning#Multimodal Transfer#Grounded Reasoning2025년 11월 10일댓글 수 로딩 중
[논문리뷰] Visual Spatial TuningarXiv에 게시된 'Visual Spatial Tuning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Spatial Reasoning#Spatial Perception#Dataset Creation#Reinforcement Learning#Visuospatial AI#Robotics2025년 11월 9일댓글 수 로딩 중
[논문리뷰] LEGO-Eval: Towards Fine-Grained Evaluation on Synthesizing 3D Embodied Environments with Tool AugmentationSoohyun Oh이 arXiv에 게시한 'LEGO-Eval: Towards Fine-Grained Evaluation on Synthesizing 3D Embodied Environments with Tool Augmentation' 논문에 대한 자세한 리뷰입니다.#Review#3D Scene Synthesis#Fine-Grained Evaluation#Tool-Augmented LLMs#Embodied AI#Vision-Language Models#Benchmark#Multi-Hop Grounding2025년 11월 9일댓글 수 로딩 중
[논문리뷰] left|,circlearrowright,text{BUS},right|: A Large and Diverse Multimodal Benchmark for evaluating the ability of Vision-Language Models to understand Rebus PuzzlesDeepiha S이 arXiv에 게시한 'left|,circlearrowright,text{BUS},right|: A Large and Diverse Multimodal Benchmark for evaluating the ability of Vision-Language Models to understand Rebus Puzzles' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Multimodal Benchmark#Rebus Puzzles#In-Context Learning#Reasoning#ControlNet#Prompt Engineering2025년 11월 9일댓글 수 로딩 중
[논문리뷰] NaviTrace: Evaluating Embodied Navigation of Vision-Language ModelsarXiv에 게시된 'NaviTrace: Evaluating Embodied Navigation of Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Embodied Navigation#VQA Benchmark#Robotic Navigation#Semantic-aware Score#Dynamic Time Warping#Real-world Scenarios2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Do Vision-Language Models Measure Up? Benchmarking Visual Measurement Reading with MeasureBencharXiv에 게시된 'Do Vision-Language Models Measure Up? Benchmarking Visual Measurement Reading with MeasureBench' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Benchmarking#Visual Measurement Reading#Synthetic Data Generation#Fine-grained Perception#Spatial Grounding#Reinforcement Learning2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Spatial-SSRL: Enhancing Spatial Understanding via Self-Supervised Reinforcement LearningarXiv에 게시된 'Spatial-SSRL: Enhancing Spatial Understanding via Self-Supervised Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Self-supervised learning#Reinforcement Learning#Spatial Understanding#Vision-Language Models#Pretext Tasks#RGB-D Images#Spatial Reasoning2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Revisiting Multimodal Positional Encoding in Vision-Language ModelsarXiv에 게시된 'Revisiting Multimodal Positional Encoding in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Positional Encoding#Vision-Language Models#Rotary Positional Embedding (RoPE)#Transformer#Multimodal Understanding#Visual Grounding#Frequency Allocation#Position Design2025년 11월 9일댓글 수 로딩 중
[논문리뷰] CityRiSE: Reasoning Urban Socio-Economic Status in Vision-Language Models via Reinforcement LearningYong Li이 arXiv에 게시한 'CityRiSE: Reasoning Urban Socio-Economic Status in Vision-Language Models via Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Urban Sensing#Socio-Economic Status#Vision-Language Models#Reinforcement Learning#Generalization#Interpretability#Multi-modal Data2025년 10월 31일댓글 수 로딩 중
[논문리뷰] VITA-E: Natural Embodied Interaction with Concurrent Seeing, Hearing, Speaking, and ActingHaihan Gao이 arXiv에 게시한 'VITA-E: Natural Embodied Interaction with Concurrent Seeing, Hearing, Speaking, and Acting' 논문에 대한 자세한 리뷰입니다.#Review#Embodied AI#Human-Robot Interaction#Vision-Language Models#Concurrency#Interruption#Robotics Control#Dual-Model Architecture#Special Tokens2025년 10월 28일댓글 수 로딩 중
[논문리뷰] IGGT: Instance-Grounded Geometry Transformer for Semantic 3D ReconstructionFangzhou Hong이 arXiv에 게시한 'IGGT: Instance-Grounded Geometry Transformer for Semantic 3D Reconstruction' 논문에 대한 자세한 리뷰입니다.#Review#Semantic 3D Reconstruction#Instance Grounding#Geometry Transformer#Multi-view Consistency#Scene Understanding#InsScene-15K#Vision-Language Models#Cross-Modal Fusion2025년 10월 28일댓글 수 로딩 중
[논문리뷰] From Denoising to Refining: A Corrective Framework for Vision-Language Diffusion ModelarXiv에 게시된 'From Denoising to Refining: A Corrective Framework for Vision-Language Diffusion Model' 논문에 대한 자세한 리뷰입니다.#Review#Discrete Diffusion Models#Vision-Language Models#Error Cascades#Self-Correction#Refinement Framework#Parallel Generation#Image Captioning#Hallucination Mitigation2025년 10월 27일댓글 수 로딩 중
[논문리뷰] Unified Reinforcement and Imitation Learning for Vision-Language ModelsarXiv에 게시된 'Unified Reinforcement and Imitation Learning for Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Reinforcement Learning#Imitation Learning#Model Distillation#Lightweight VLMs#LLM-as-a-Judge#Multimodal Learning2025년 10월 23일댓글 수 로딩 중
[논문리뷰] ProCLIP: Progressive Vision-Language Alignment via LLM-based EmbedderZonghao Guo이 arXiv에 게시한 'ProCLIP: Progressive Vision-Language Alignment via LLM-based Embedder' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#CLIP#LLM-based Embedder#Knowledge Distillation#Contrastive Learning#Curriculum Learning#Multimodal Alignment#Progressive Alignment2025년 10월 22일댓글 수 로딩 중
[논문리뷰] Towards Mixed-Modal Retrieval for Universal Retrieval-Augmented GenerationarXiv에 게시된 'Towards Mixed-Modal Retrieval for Universal Retrieval-Augmented Generation' 논문에 대한 자세한 리뷰입니다.#Review#Universal RAG#Multimodal Retrieval#Mixed-Modal Data Generation#Vision-Language Models#Contrastive Learning#Matryoshka Representation Learning2025년 10월 21일댓글 수 로딩 중
[논문리뷰] Glyph: Scaling Context Windows via Visual-Text CompressionWenyi Hong이 arXiv에 게시한 'Glyph: Scaling Context Windows via Visual-Text Compression' 논문에 대한 자세한 리뷰입니다.#Review#Long-Context Modeling#Visual Compression#Vision-Language Models#Token Efficiency#Genetic Algorithms#Multimodal AI#LLM Scaling2025년 10월 21일댓글 수 로딩 중
[논문리뷰] Scaling Instruction-Based Video Editing with a High-Quality Synthetic DatasetHao Ouyang이 arXiv에 게시한 'Scaling Instruction-Based Video Editing with a High-Quality Synthetic Dataset' 논문에 대한 자세한 리뷰입니다.#Review#Video Editing#Instruction-Based Editing#Synthetic Data Generation#Dataset#Curriculum Learning#Diffusion Models#Vision-Language Models2025년 10월 20일댓글 수 로딩 중
[논문리뷰] From Pixels to Words -- Towards Native Vision-Language Primitives at ScalearXiv에 게시된 'From Pixels to Words -- Towards Native Vision-Language Primitives at Scale' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Native VLMs#Early Fusion#Multimodal Learning#Transformer Architecture#Rotary Position Embeddings#Pixel-Word Alignment#End-to-End Training2025년 10월 17일댓글 수 로딩 중
[논문리뷰] Generative Universal Verifier as Multimodal Meta-ReasonerarXiv에 게시된 'Generative Universal Verifier as Multimodal Meta-Reasoner' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal AI#Visual Verification#Generative Models#Self-Refinement#Vision-Language Models#Test-Time Scaling#Reasoning2025년 10월 16일댓글 수 로딩 중
[논문리뷰] HoneyBee: Data Recipes for Vision-Language ReasonersarXiv에 게시된 'HoneyBee: Data Recipes for Vision-Language Reasoners' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Data Curation#Chain-of-Thought#VL Reasoning#Dataset Scaling#Supervised Finetuning#HONEYBEE#Test-Time Scaling2025년 10월 15일댓글 수 로딩 중
[논문리뷰] StaMo: Unsupervised Learning of Generalizable Robot Motion from Compact State RepresentationarXiv에 게시된 'StaMo: Unsupervised Learning of Generalizable Robot Motion from Compact State Representation' 논문에 대한 자세한 리뷰입니다.#Review#Robot Learning#State Representation#Motion Representation#Diffusion Models#Unsupervised Learning#World Modeling#Vision-Language Models#Latent Action2025년 10월 9일댓글 수 로딩 중
[논문리뷰] Improving GUI Grounding with Explicit Position-to-Coordinate MappingSpandana Gella이 arXiv에 게시한 'Improving GUI Grounding with Explicit Position-to-Coordinate Mapping' 논문에 대한 자세한 리뷰입니다.#Review#GUI Grounding#Vision-Language Models#Positional Embedding#UI Automation#Coordinate Prediction#Resolution Generalization#Transformer Architecture2025년 10월 6일댓글 수 로딩 중
[논문리뷰] VLM-FO1: Bridging the Gap Between High-Level Reasoning and Fine-Grained Perception in VLMsarXiv에 게시된 'VLM-FO1: Bridging the Gap Between High-Level Reasoning and Fine-Grained Perception in VLMs' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Object Grounding#Fine-grained Perception#Hybrid Region Encoder#Plug-and-play#Two-stage Training#Visual Reasoning2025년 10월 2일댓글 수 로딩 중
[논문리뷰] GUI-KV: Efficient GUI Agents via KV Cache with Spatio-Temporal AwarenessChien-Sheng Wu이 arXiv에 게시한 'GUI-KV: Efficient GUI Agents via KV Cache with Spatio-Temporal Awareness' 논문에 대한 자세한 리뷰입니다.#Review#GUI Agents#KV Cache Compression#Spatio-Temporal Awareness#Vision-Language Models#Efficiency#Attention Sparsity#QR Decomposition2025년 10월 2일댓글 수 로딩 중
[논문리뷰] Code2Video: A Code-centric Paradigm for Educational Video GenerationarXiv에 게시된 'Code2Video: A Code-centric Paradigm for Educational Video Generation' 논문에 대한 자세한 리뷰입니다.#Review#Educational Video Generation#Code-centric AI#Multi-agent Framework#Manim#Vision-Language Models#Knowledge Transfer#Code Generation#MMMC Benchmark2025년 10월 2일댓글 수 로딩 중
[논문리뷰] Stable Cinemetrics : Structured Taxonomy and Evaluation for Professional Video GenerationarXiv에 게시된 'Stable Cinemetrics : Structured Taxonomy and Evaluation for Professional Video Generation' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Evaluation Framework#Cinematic Control#Taxonomy#Human Annotation#Vision-Language Models#Text-to-Video2025년 10월 1일댓글 수 로딩 중
[논문리뷰] More Thought, Less Accuracy? On the Dual Nature of Reasoning in Vision-Language ModelsFabian Waschkowski이 arXiv에 게시한 'More Thought, Less Accuracy? On the Dual Nature of Reasoning in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Multimodal Reasoning#Reasoning#Visual Forgetting#Perceptual Grounding#Reinforcement Learning#Policy Optimization#Visual Anchors2025년 10월 1일댓글 수 로딩 중
[논문리뷰] VoiceAssistant-Eval: Benchmarking AI Assistants across Listening, Speaking, and ViewingarXiv에 게시된 'VoiceAssistant-Eval: Benchmarking AI Assistants across Listening, Speaking, and Viewing' 논문에 대한 자세한 리뷰입니다.#Review#AI Assistants#Multimodal Benchmarking#Audio Understanding#Speech Synthesis#Vision-Language Models#Role-play#Safety#Robustness2025년 9월 29일댓글 수 로딩 중
[논문리뷰] See, Point, Fly: A Learning-Free VLM Framework for Universal Unmanned Aerial NavigationChih-Hai Su이 arXiv에 게시한 'See, Point, Fly: A Learning-Free VLM Framework for Universal Unmanned Aerial Navigation' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#UAV Navigation#Zero-shot#Spatial Grounding#Waypoint Prompting#Autonomous Navigation#Adaptive Control2025년 9월 29일댓글 수 로딩 중
[논문리뷰] RefAM: Attention Magnets for Zero-Shot Referral SegmentationFederico Tombari이 arXiv에 게시한 'RefAM: Attention Magnets for Zero-Shot Referral Segmentation' 논문에 대한 자세한 리뷰입니다.#Review#Zero-Shot Segmentation#Referring Segmentation#Diffusion Transformers (DiTs)#Attention Mechanisms#Attention Sinks#Stop Words#Vision-Language Models#Training-Free Methods2025년 9월 29일댓글 수 로딩 중
[논문리뷰] ERGO: Efficient High-Resolution Visual Understanding for Vision-Language ModelsKi-Ung Song이 arXiv에 게시한 'ERGO: Efficient High-Resolution Visual Understanding for Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#High-Resolution Vision#Vision-Language Models#Efficient Reasoning#Coarse-to-Fine#Reinforcement Learning#Visual Understanding#Attention Mechanism2025년 9월 29일댓글 수 로딩 중
[논문리뷰] MetaEmbed: Scaling Multimodal Retrieval at Test-Time with Flexible Late InteractionXintao Chen이 arXiv에 게시한 'MetaEmbed: Scaling Multimodal Retrieval at Test-Time with Flexible Late Interaction' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Retrieval#Late Interaction#Meta Tokens#Matryoshka Representation Learning#Test-Time Scaling#Vision-Language Models#Dense Retrieval#Efficiency2025년 9월 23일댓글 수 로딩 중
[논문리뷰] Ask-to-Clarify: Resolving Instruction Ambiguity through Multi-turn DialogueHui Zhang이 arXiv에 게시한 'Ask-to-Clarify: Resolving Instruction Ambiguity through Multi-turn Dialogue' 논문에 대한 자세한 리뷰입니다.#Review#Embodied AI#Human-Robot Interaction#Multi-turn Dialogue#Instruction Following#Vision-Language Models#Diffusion Models#Ambiguity Resolution#Low-level Actions2025년 9월 22일댓글 수 로딩 중
[논문리뷰] ScaleCUA: Scaling Open-Source Computer Use Agents with Cross-Platform DataZehao Li이 arXiv에 게시한 'ScaleCUA: Scaling Open-Source Computer Use Agents with Cross-Platform Data' 논문에 대한 자세한 리뷰입니다.#Review#Computer Use Agents#Vision-Language Models#Cross-Platform Data#GUI Automation#Data Scaling#Open-Source#Task Completion#GUI Grounding2025년 9월 19일댓글 수 로딩 중
[논문리뷰] EchoVLM: Dynamic Mixture-of-Experts Vision-Language Model for Universal Ultrasound IntelligenceQinghua Huang이 arXiv에 게시한 'EchoVLM: Dynamic Mixture-of-Experts Vision-Language Model for Universal Ultrasound Intelligence' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Ultrasound Imaging#Medical Diagnosis#Mixture-of-Experts (MoE)#Instruction Tuning#Multimodal AI#Report Generation#VQA2025년 9월 19일댓글 수 로딩 중
[논문리뷰] 3D Aware Region Prompted Vision Language ModelXiaolong Li이 arXiv에 게시한 '3D Aware Region Prompted Vision Language Model' 논문에 대한 자세한 리뷰입니다.#Review#3D Vision#Vision-Language Models#Spatial Reasoning#Region Prompting#Multi-view Learning#Depth Estimation#Unified Representation#Generative AI2025년 9월 17일댓글 수 로딩 중
[논문리뷰] Lost in Embeddings: Information Loss in Vision-Language ModelsIvan Vulić이 arXiv에 게시한 'Lost in Embeddings: Information Loss in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Information Loss#Embeddings#Connectors#k-NN Overlap Ratio#Embedding Reconstruction#Multimodal AI2025년 9월 16일댓글 수 로딩 중
[논문리뷰] Look Again, Think Slowly: Enhancing Visual Reflection in Vision-Language ModelsShuo Ren이 arXiv에 게시한 'Look Again, Think Slowly: Enhancing Visual Reflection in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Visual Reasoning#Reflection#Reinforcement Learning#Visual Attention#Slow Thinking#Multimodal Agents2025년 9월 16일댓글 수 로딩 중
[논문리뷰] Visual Representation Alignment for Multimodal Large Language ModelsHeeseong Shin이 arXiv에 게시한 'Visual Representation Alignment for Multimodal Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLMs#Visual Representation Alignment#Foundation Models#Regularization#Fine-grained Visual Understanding#Spatial Reasoning#Object Counting#Vision-Language Models2025년 9월 10일댓글 수 로딩 중
[논문리뷰] MobiAgent: A Systematic Framework for Customizable Mobile AgentsWangbo Gong이 arXiv에 게시한 'MobiAgent: A Systematic Framework for Customizable Mobile Agents' 논문에 대한 자세한 리뷰입니다.#Review#Mobile Agents#GUI Agents#Vision-Language Models#Agent Acceleration#Benchmarking#Reinforcement Learning#Data Collection2025년 9월 3일댓글 수 로딩 중
[논문리뷰] Mimicking the Physicist's Eye:A VLM-centric Approach for Physics Formula DiscoveryWenjie Zhou이 arXiv에 게시한 'Mimicking the Physicist's Eye:A VLM-centric Approach for Physics Formula Discovery' 논문에 대한 자세한 리뷰입니다.#Review#Physics Formula Discovery#Multimodal AI#Vision-Language Models#Symbolic Regression#Causal Chain of Thought#Reinforcement Learning#Agentic AI2025년 9월 1일댓글 수 로딩 중
[논문리뷰] CLIPSym: Delving into Symmetry Detection with CLIPRaymond A. Yeh이 arXiv에 게시한 'CLIPSym: Delving into Symmetry Detection with CLIP' 논문에 대한 자세한 리뷰입니다.#Review#Symmetry Detection#Vision-Language Models#CLIP#Equivariant Networks#Prompt Engineering#Geometric Deep Learning2025년 9월 1일댓글 수 로딩 중
[논문리뷰] OneReward: Unified Mask-Guided Image Generation via Multi-Task Human Preference LearningYitong Wang이 arXiv에 게시한 'OneReward: Unified Mask-Guided Image Generation via Multi-Task Human Preference Learning' 논문에 대한 자세한 리뷰입니다.#Review#Image Generation#Mask-Guided Editing#Reinforcement Learning#Human Preference Learning#Vision-Language Models#Multi-Task Learning#Flow Matching2025년 8월 29일댓글 수 로딩 중
[논문리뷰] Self-Rewarding Vision-Language Model via Reasoning DecompositionZhenwen Liang이 arXiv에 게시한 'Self-Rewarding Vision-Language Model via Reasoning Decomposition' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Reinforcement Learning#Self-Rewarding#Reasoning Decomposition#Visual Perception#Language Reasoning#Hallucinations#Language Shortcuts2025년 8월 28일댓글 수 로딩 중
[논문리뷰] MEENA (PersianMMMU): Multimodal-Multilingual Educational Exams for N-level AssessmentDoratossadat Dastgheib이 arXiv에 게시한 'MEENA (PersianMMMU): Multimodal-Multilingual Educational Exams for N-level Assessment' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Language Models#Multilingual Benchmarking#Persian Language#Educational Assessment#Vision-Language Models#Cultural Nuance#Reasoning Tasks2025년 8월 26일댓글 수 로딩 중
[논문리뷰] InternVL3.5: Advancing Open-Source Multimodal Models in Versatility, Reasoning, and Efficiencyjinglinglin이 arXiv에 게시한 'InternVL3.5: Advancing Open-Source Multimodal Models in Versatility, Reasoning, and Efficiency' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Large Language Models#Reinforcement Learning#Inference Efficiency#Vision-Language Models#Open-Source#Versatility#Reasoning2025년 8월 26일댓글 수 로딩 중
[논문리뷰] Explain Before You Answer: A Survey on Compositional Visual ReasoningXin Zheng이 arXiv에 게시한 'Explain Before You Answer: A Survey on Compositional Visual Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Compositional Visual Reasoning#Multimodal AI#Vision-Language Models#Large Language Models#Chain-of-Thought#Tool Learning#Agentic AI#Survey2025년 8월 26일댓글 수 로딩 중
[논문리뷰] MM-BrowseComp: A Comprehensive Benchmark for Multimodal Browsing AgentsJun Dong이 arXiv에 게시한 'MM-BrowseComp: A Comprehensive Benchmark for Multimodal Browsing Agents' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Browsing#AI Agents#Benchmark#Vision-Language Models#Reasoning#Tool Use#Deep Search2025년 8월 20일댓글 수 로딩 중
[논문리뷰] Inverse-LLaVA: Eliminating Alignment Pre-training Through Text-to-Vision MappingTyler Derr이 arXiv에 게시한 'Inverse-LLaVA: Eliminating Alignment Pre-training Through Text-to-Vision Mapping' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Learning#Vision-Language Models#Alignment Pre-training#Text-to-Vision Mapping#Continuous Representations#Computational Efficiency#LLM2025년 8월 19일댓글 수 로딩 중
[논문리뷰] Towards Affordance-Aware Robotic Dexterous Grasping with Human-like PriorsHaoran Xu이 arXiv에 게시한 'Towards Affordance-Aware Robotic Dexterous Grasping with Human-like Priors' 논문에 대한 자세한 리뷰입니다.#Review#Robotic Dexterous Grasping#Affordance-Aware#Human-like Priors#Reinforcement Learning#Vision-Language Models#Two-Stage Training#Manipulation2025년 8월 13일댓글 수 로딩 중
[논문리뷰] Test-Time Reinforcement Learning for GUI Grounding via Region ConsistencyZhengxi Lu이 arXiv에 게시한 'Test-Time Reinforcement Learning for GUI Grounding via Region Consistency' 논문에 대한 자세한 리뷰입니다.#Review#GUI Grounding#Test-Time Scaling#Reinforcement Learning#Region Consistency#Spatial Voting#Self-Supervised Learning#Vision-Language Models2025년 8월 13일댓글 수 로딩 중
[논문리뷰] OpenCUA: Open Foundations for Computer-Use AgentsTianbao Xie이 arXiv에 게시한 'OpenCUA: Open Foundations for Computer-Use Agents' 논문에 대한 자세한 리뷰입니다.#Review#Computer-Use Agents#Vision-Language Models#Chain-of-Thought Reasoning#Large-scale Dataset#Open-source Framework#Desktop Automation#Agent Evaluation2025년 8월 13일댓글 수 로딩 중
[논문리뷰] MolmoAct: Action Reasoning Models that can Reason in SpaceShuo Liu이 arXiv에 게시한 'MolmoAct: Action Reasoning Models that can Reason in Space' 논문에 대한 자세한 리뷰입니다.#Review#Robotics#Action Reasoning#Vision-Language Models#Spatial Planning#Depth Perception#Trajectory Generation#Explainable AI2025년 8월 12일댓글 수 로딩 중
[논문리뷰] SEAgent: Self-Evolving Computer Use Agent with Autonomous Learning from ExperienceXiaoyi Dong이 arXiv에 게시한 'SEAgent: Self-Evolving Computer Use Agent with Autonomous Learning from Experience' 논문에 대한 자세한 리뷰입니다.#Review#Computer Use Agent#Self-Evolving#Reinforcement Learning#Curriculum Learning#Vision-Language Models#Experiential Learning#Specialist-to-Generalist2025년 8월 7일댓글 수 로딩 중
[논문리뷰] Enhancing Vision-Language Model Training with Reinforcement Learning in Synthetic Worlds for Real-World SuccessRuslan Rakhimov이 arXiv에 게시한 'Enhancing Vision-Language Model Training with Reinforcement Learning in Synthetic Worlds for Real-World Success' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Vision-Language Models#Synthetic Worlds#Transfer Learning#PPO#Actor-Critic#Embodied AI2025년 8월 7일댓글 수 로딩 중
[논문리뷰] DreamVVT: Mastering Realistic Video Virtual Try-On in the Wild via a Stage-Wise Diffusion Transformer FrameworkChao Liang이 arXiv에 게시한 'DreamVVT: Mastering Realistic Video Virtual Try-On in the Wild via a Stage-Wise Diffusion Transformer Framework' 논문에 대한 자세한 리뷰입니다.#Review#Video Virtual Try-On#Diffusion Transformers#Stage-Wise Framework#Vision-Language Models#LoRA#Temporal Consistency#Garment Preservation2025년 8월 7일댓글 수 로딩 중
[논문리뷰] Multimodal Referring Segmentation: A SurveyZuxuan Wu이 arXiv에 게시한 'Multimodal Referring Segmentation: A Survey' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Learning#Referring Segmentation#Vision-Language Models#Image Segmentation#Video Segmentation#3D Vision#Survey2025년 8월 4일댓글 수 로딩 중
[논문리뷰] AgroBench: Vision-Language Model Benchmark in AgricultureYoshitaka Ushiku이 arXiv에 게시한 'AgroBench: Vision-Language Model Benchmark in Agriculture' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Agriculture#Benchmarking#Disease Identification#Pest Management#Crop Management#Agronomy2025년 8월 2일댓글 수 로딩 중