[논문리뷰] CoME-VL: Scaling Complementary Multi-Encoder Vision-Language LearningHisham Cholakkal이 arXiv에 게시한 'CoME-VL: Scaling Complementary Multi-Encoder Vision-Language Learning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Multi-Encoder Fusion#Entropy-Guided Selection#Orthogonal Layer#RoPE#Visual Grounding#Multimodal Understanding2026년 4월 5일댓글 수 로딩 중
[논문리뷰] CUA-Suite: Massive Human-annotated Video Demonstrations for Computer-Use AgentsKaixin Li이 arXiv에 게시한 'CUA-Suite: Massive Human-annotated Video Demonstrations for Computer-Use Agents' 논문에 대한 자세한 리뷰입니다.#Review#Computer-Use Agents#Video Demonstrations#Human Annotation#Desktop Applications#Visual Grounding#Action Prediction#Multi-layered Reasoning#Foundation Action Models2026년 3월 25일댓글 수 로딩 중
[논문리뷰] Ego2Web: A Web Agent Benchmark Grounded in Egocentric VideosarXiv에 게시된 'Ego2Web: A Web Agent Benchmark Grounded in Egocentric Videos' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal AI Agents#Web-agent Benchmark#Egocentric Video#Visual Grounding#Online Evaluation#LLM-as-a-Judge#Perception-Action Alignment2026년 3월 24일댓글 수 로딩 중
[논문리뷰] Video-CoE: Reinforcing Video Event Prediction via Chain of EventsarXiv에 게시된 'Video-CoE: Reinforcing Video Event Prediction via Chain of Events' 논문에 대한 자세한 리뷰입니다.#Review#Video Event Prediction (VEP)#Multimodal Large Language Models (MLLMs)#Chain of Events (CoE)#Logical Reasoning#Visual Grounding#Reinforcement Learning (RL)#Supervised Fine-Tuning (SFT)2026년 3월 18일댓글 수 로딩 중
[논문리뷰] Thinking in Uncertainty: Mitigating Hallucinations in MLRMs with Latent Entropy-Aware DecodingarXiv에 게시된 'Thinking in Uncertainty: Mitigating Hallucinations in MLRMs with Latent Entropy-Aware Decoding' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Large Reasoning Models (MLRMs)#Hallucinations#Entropy-Aware Decoding#Latent Reasoning#Visual Grounding#Decoding Strategies#Uncertainty Mitigation2026년 3월 17일댓글 수 로딩 중
[논문리뷰] From Narrow to Panoramic Vision: Attention-Guided Cold-Start Reshapes Multimodal ReasoningarXiv에 게시된 'From Narrow to Panoramic Vision: Attention-Guided Cold-Start Reshapes Multimodal Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Reasoning#Cold-Start Initialization#Attention Mechanism#Visual Grounding#Large Multimodal Models (LMMs)#Reinforcement Learning (RLHF)#Data Synthesis#Visual Attention Score (VAS)2026년 3월 9일댓글 수 로딩 중
[논문리뷰] GUI-Libra: Training Native GUI Agents to Reason and Act with Action-aware Supervision and Partially Verifiable RLarXiv에 게시된 'GUI-Libra: Training Native GUI Agents to Reason and Act with Action-aware Supervision and Partially Verifiable RL' 논문에 대한 자세한 리뷰입니다.#Review#GUI Agents#Reinforcement Learning#Supervised Fine-tuning#Visual Grounding#Long-Horizon Tasks#Partial Verifiability#KL Regularization#Data Curation2026년 2월 25일댓글 수 로딩 중
[논문리뷰] Selective Training for Large Vision Language Models via Visual Information GainarXiv에 게시된 'Selective Training for Large Vision Language Models via Visual Information Gain' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Visual Grounding#Language Bias Mitigation#Selective Training#Perplexity Metric#Data Efficiency#Multimodal AI2026년 2월 22일댓글 수 로딩 중
[논문리뷰] On Robustness and Chain-of-Thought Consistency of RL-Finetuned VLMsarXiv에 게시된 'On Robustness and Chain-of-Thought Consistency of RL-Finetuned VLMs' 논문에 대한 자세한 리뷰입니다.#Review#VLM#RL Fine-tuning#Chain-of-Thought#Robustness#Faithfulness#Textual Perturbations#Visual Grounding#Uncertainty Calibration2026년 2월 15일댓글 수 로딩 중
[논문리뷰] Reinforced Attention LearningarXiv에 게시된 'Reinforced Attention Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Multimodal LLMs#Attention Mechanisms#Policy Gradient#Knowledge Distillation#Visual Grounding#Post-training2026년 2월 5일댓글 수 로딩 중
[논문리뷰] MMDeepResearch-Bench: A Benchmark for Multimodal Deep Research AgentsSamiul Alam이 arXiv에 게시한 'MMDeepResearch-Bench: A Benchmark for Multimodal Deep Research Agents' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Deep Research#Research Agents#Benchmark#Evaluation Framework#Retrieval-Augmented Generation#Large Multimodal Models#Visual Grounding#Citation Analysis2026년 1월 21일댓글 수 로딩 중
[논문리뷰] GroundingME: Exposing the Visual Grounding Gap in MLLMs through Multi-Dimensional EvaluationarXiv에 게시된 'GroundingME: Exposing the Visual Grounding Gap in MLLMs through Multi-Dimensional Evaluation' 논문에 대한 자세한 리뷰입니다.#Review#Visual Grounding#MLLMs#Benchmark#Multi-Dimensional Evaluation#Rejection Capability#Test-Time Scaling#Data Mixture Training2025년 12월 21일댓글 수 로딩 중
[논문리뷰] A4-Agent: An Agentic Framework for Zero-Shot Affordance ReasoningHongfei Zhang이 arXiv에 게시한 'A4-Agent: An Agentic Framework for Zero-Shot Affordance Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Affordance Prediction#Zero-Shot Learning#Agentic AI#Foundation Models#Multimodal Reasoning#Visual Grounding#Image Generation#Robotics2025년 12월 16일댓글 수 로딩 중
[논문리뷰] VisMem: Latent Vision Memory Unlocks Potential of Vision-Language ModelsYudong Zhang이 arXiv에 게시한 'VisMem: Latent Vision Memory Unlocks Potential of Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Latent Memory#Cognitive Memory#Visual Grounding#Short-term Memory#Long-term Memory#Reinforcement Learning2025년 11월 23일댓글 수 로딩 중
[논문리뷰] Draft and Refine with Visual ExpertsarXiv에 게시된 'Draft and Refine with Visual Experts' 논문에 대한 자세한 리뷰입니다.#Review#Large Vision-Language Models (LVLMs)#Visual Grounding#Hallucination Mitigation#Agent Framework#Visual Question Answering (VQA)#Expert Coordination#Relevance Map#Multi-modal Reasoning2025년 11월 20일댓글 수 로딩 중
[논문리뷰] Error-Driven Scene Editing for 3D Grounding in Large Language ModelsarXiv에 게시된 'Error-Driven Scene Editing for 3D Grounding in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#3D Grounding#3D-LLMs#Scene Editing#Counterfactual Augmentation#Error-Driven Learning#Spatial Reasoning#Visual Grounding2025년 11월 18일댓글 수 로딩 중
[논문리뷰] Towards Mitigating Hallucinations in Large Vision-Language Models by Refining Textual EmbeddingsJiaxin Yuan이 arXiv에 게시한 'Towards Mitigating Hallucinations in Large Vision-Language Models by Refining Textual Embeddings' 논문에 대한 자세한 리뷰입니다.#Review#Hallucination Mitigation#Large Vision-Language Models#Textual Embeddings#Multimodal Reasoning#Attention Mechanism#Visual Grounding#Modality Imbalance2025년 11월 9일댓글 수 로딩 중
[논문리뷰] GUI-AIMA: Aligning Intrinsic Multimodal Attention with a Context Anchor for GUI GroundingWanrong Zhu이 arXiv에 게시한 'GUI-AIMA: Aligning Intrinsic Multimodal Attention with a Context Anchor for GUI Grounding' 논문에 대한 자세한 리뷰입니다.#Review#GUI Grounding#Multimodal Attention#MLLMs#Coordinate-Free#Visual Grounding#Attention Weighting#Anchor Token2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Revisiting Multimodal Positional Encoding in Vision-Language ModelsarXiv에 게시된 'Revisiting Multimodal Positional Encoding in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Positional Encoding#Vision-Language Models#Rotary Positional Embedding (RoPE)#Transformer#Multimodal Understanding#Visual Grounding#Frequency Allocation#Position Design2025년 11월 9일댓글 수 로딩 중
[논문리뷰] ChartAB: A Benchmark for Chart Grounding & Dense AlignmentarXiv에 게시된 'ChartAB: A Benchmark for Chart Grounding & Dense Alignment' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models (VLMs)#Chart Understanding#Visual Grounding#Dense Alignment#Benchmark#Robustness#Multimodal Learning2025년 10월 31일댓글 수 로딩 중
[논문리뷰] Taming Text-to-Sounding Video Generation via Advanced Modality Condition and InteractionarXiv에 게시된 'Taming Text-to-Sounding Video Generation via Advanced Modality Condition and Interaction' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Sounding Video Generation#Diffusion Models#Dual-tower Architecture#Cross-modal Fusion#Visual Grounding#Hierarchical Captioning#Cross-Attention2025년 10월 10일댓글 수 로딩 중
[논문리뷰] SciVideoBench: Benchmarking Scientific Video Reasoning in Large Multimodal ModelsMohit Bansal이 arXiv에 게시한 'SciVideoBench: Benchmarking Scientific Video Reasoning in Large Multimodal Models' 논문에 대한 자세한 리뷰입니다.#Review#Video Reasoning#Multimodal AI#Scientific Research#Large Multimodal Models#Benchmark#Quantitative Reasoning#Domain Knowledge#Visual Grounding2025년 10월 10일댓글 수 로딩 중
[논문리뷰] Unleashing the Potential of Multimodal LLMs for Zero-Shot Spatio-Temporal Video GroundingRynson W. H. Lau이 arXiv에 게시한 'Unleashing the Potential of Multimodal LLMs for Zero-Shot Spatio-Temporal Video Grounding' 논문에 대한 자세한 리뷰입니다.#Review#Spatio-Temporal Video Grounding#Multimodal Large Language Models#Zero-Shot Learning#Visual Grounding#Decomposed Spatio-Temporal Highlighting#Logit-Guided Re-attention#Temporal-Augmented Assembling2025년 9월 19일댓글 수 로딩 중
[논문리뷰] MARS2 2025 Challenge on Multimodal Reasoning: Datasets, Methods, Results, Discussion, and OutlookBowen Zhou이 arXiv에 게시한 'MARS2 2025 Challenge on Multimodal Reasoning: Datasets, Methods, Results, Discussion, and Outlook' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Reasoning#Large Language Models (LLMs)#Multimodal Large Language Models (MLLMs)#Visual Grounding#Visual Question Answering#Advertisement Video Analysis#Real-world Scenarios#Challenge Benchmark2025년 9월 18일댓글 수 로딩 중
[논문리뷰] Ovis2.5 Technical ReportYang Li이 arXiv에 게시한 'Ovis2.5 Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLMs#Native Resolution Vision#Deep Reasoning#Chart Analysis#OCR#Visual Grounding#Training Efficiency#Preference Optimization2025년 8월 19일댓글 수 로딩 중
[논문리뷰] Controlling Multimodal LLMs via Reward-guided DecodingMichal Drozdzal이 arXiv에 게시한 'Controlling Multimodal LLMs via Reward-guided Decoding' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLMs#Reward Models#Guided Decoding#Visual Grounding#Hallucination Mitigation#Object Precision#Object Recall#Inference-time Control2025년 8월 18일댓글 수 로딩 중
[논문리뷰] IAG: Input-aware Backdoor Attack on VLMs for Visual GroundingDi Zhang이 arXiv에 게시한 'IAG: Input-aware Backdoor Attack on VLMs for Visual Grounding' 논문에 대한 자세한 리뷰입니다.#Review#Backdoor Attack#Vision-Language Models (VLMs)#Visual Grounding#Input-aware Trigger#Adversarial Attack#Security#U-Net#Open-vocabulary2025년 8월 14일댓글 수 로딩 중
[논문리뷰] TARS: MinMax Token-Adaptive Preference Strategy for Hallucination Reduction in MLLMsJiasheng Tang이 arXiv에 게시한 'TARS: MinMax Token-Adaptive Preference Strategy for Hallucination Reduction in MLLMs' 논문에 대한 자세한 리뷰입니다.#Review#MLLMs#Hallucination Reduction#Preference Optimization#Min-Max Optimization#Token-Adaptive Strategy#Spectral Regularization#Visual Grounding2025년 8월 2일댓글 수 로딩 중