[논문리뷰] CoME-VL: Scaling Complementary Multi-Encoder Vision-Language LearningHisham Cholakkal이 arXiv에 게시한 'CoME-VL: Scaling Complementary Multi-Encoder Vision-Language Learning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Multi-Encoder Fusion#Entropy-Guided Selection#Orthogonal Layer#RoPE#Visual Grounding#Multimodal Understanding2026년 4월 5일댓글 수 로딩 중
[논문리뷰] MuRF: Unlocking the Multi-Scale Potential of Vision Foundation ModelsarXiv에 게시된 'MuRF: Unlocking the Multi-Scale Potential of Vision Foundation Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision Foundation Models (VFMs)#Multi-Resolution Fusion (MuRF)#Dense Prediction#Anomaly Detection#Multimodal Understanding#Scale-Robust Representation2026년 3월 26일댓글 수 로딩 중
[논문리뷰] HiMu: Hierarchical Multimodal Frame Selection for Long Video Question AnsweringarXiv에 게시된 'HiMu: Hierarchical Multimodal Frame Selection for Long Video Question Answering' 논문에 대한 자세한 리뷰입니다.#Review#Video Question Answering#Frame Selection#Neuro-Symbolic Reasoning#Multimodal Understanding#Long Video2026년 3월 22일댓글 수 로딩 중
[논문리뷰] Penguin-VL: Exploring the Efficiency Limits of VLM with LLM-based Vision EncodersarXiv에 게시된 'Penguin-VL: Exploring the Efficiency Limits of VLM with LLM-based Vision Encoders' 논문에 대한 자세한 리뷰입니다.#Review#Vision Language Model (VLM)#LLM-based Vision Encoder#Efficient AI#Multimodal Understanding#Generative Pretraining#Resource-constrained Deployment#Temporal Reasoning2026년 3월 8일댓글 수 로딩 중
[논문리뷰] UniG2U-Bench: Do Unified Models Advance Multimodal Understanding?Xiaoyu Chen이 arXiv에 게시한 'UniG2U-Bench: Do Unified Models Advance Multimodal Understanding?' 논문에 대한 자세한 리뷰입니다.#Review#Unified Multimodal Models#Multimodal Understanding#Generation-to-Understanding#Benchmark#Vision-Language Models#Generate-then-Answer#Model Evaluation2026년 3월 3일댓글 수 로딩 중
[논문리뷰] Adapting Vision-Language Models for E-commerce Understanding at ScalearXiv에 게시된 'Adapting Vision-Language Models for E-commerce Understanding at Scale' 논문에 대한 자세한 리뷰입니다.#Review#E-commerce#Vision-Language Models#Multimodal Understanding#Instruction Tuning#Attribute Extraction#Fine-tuning#Benchmarking#LLMs2026년 2월 12일댓글 수 로딩 중
[논문리뷰] TUNA: Taming Unified Visual Representations for Native Unified Multimodal ModelsarXiv에 게시된 'TUNA: Taming Unified Visual Representations for Native Unified Multimodal Models' 논문에 대한 자세한 리뷰입니다.#Review#Unified Multimodal Models#Visual Representation#VAE#Flow Matching#Multimodal Understanding#Multimodal Generation#Image Editing#State-of-the-Art2025년 12월 1일댓글 수 로딩 중
[논문리뷰] HunyuanVideo 1.5 Technical ReportFang Yang이 arXiv에 게시한 'HunyuanVideo 1.5 Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Video Generation#Diffusion Transformer#Sparse Attention#Super-Resolution#Open-Source#Multimodal Understanding#Training Optimization#Efficient Inference2025년 11월 24일댓글 수 로딩 중
[논문리뷰] Uni-MoE-2.0-Omni: Scaling Language-Centric Omnimodal Large Model with Advanced MoE, Training and DataarXiv에 게시된 'Uni-MoE-2.0-Omni: Scaling Language-Centric Omnimodal Large Model with Advanced MoE, Training and Data' 논문에 대한 자세한 리뷰입니다.#Review#Omnimodal Large Models#Mixture-of-Experts (MoE)#Language-Centric AI#Multimodal Understanding#Multimodal Generation#Progressive Training#Omni-Modality 3D RoPE2025년 11월 17일댓글 수 로딩 중
[논문리뷰] Revisiting Multimodal Positional Encoding in Vision-Language ModelsarXiv에 게시된 'Revisiting Multimodal Positional Encoding in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Positional Encoding#Vision-Language Models#Rotary Positional Embedding (RoPE)#Transformer#Multimodal Understanding#Visual Grounding#Frequency Allocation#Position Design2025년 11월 9일댓글 수 로딩 중
[논문리뷰] OmniVinci: Enhancing Architecture and Data for Omni-Modal Understanding LLMarXiv에 게시된 'OmniVinci: Enhancing Architecture and Data for Omni-Modal Understanding LLM' 논문에 대한 자세한 리뷰입니다.#Review#Omni-Modal LLM#Multimodal Understanding#Vision-Audio Alignment#Temporal Reasoning#Data Curation#Foundation Models#Contrastive Learning#Rotary Time Embedding2025년 10월 20일댓글 수 로딩 중
[논문리뷰] InteractiveOmni: A Unified Omni-modal Model for Audio-Visual Multi-turn DialogueDongchuan Ran이 arXiv에 게시한 'InteractiveOmni: A Unified Omni-modal Model for Audio-Visual Multi-turn Dialogue' 논문에 대한 자세한 리뷰입니다.#Review#Omni-modal LLM#Audio-Visual Dialogue#Multi-turn Interaction#Speech Generation#Long-term Memory#Multimodal Understanding#End-to-end Training2025년 10월 16일댓글 수 로딩 중
[논문리뷰] SAIL-VL2 Technical ReportZijian Kang이 arXiv에 게시한 'SAIL-VL2 Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Model#Multimodal Understanding#Mixture-of-Experts#Progressive Training#Data Curation#Supervised Fine-tuning#Reinforcement Learning#SAIL-ViT2025년 9월 18일댓글 수 로딩 중
[논문리뷰] Can Understanding and Generation Truly Benefit Together -- or Just Coexist?Hui Han이 arXiv에 게시한 'Can Understanding and Generation Truly Benefit Together -- or Just Coexist?' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Understanding#Multimodal Generation#Unified Models#Auto-Encoder#Reinforcement Learning#Image-to-Text#Text-to-Image#Reconstruction Fidelity2025년 9월 12일댓글 수 로딩 중
[논문리뷰] Bifrost-1: Bridging Multimodal LLMs and Diffusion Models with Patch-level CLIP LatentsMohit Bansal이 arXiv에 게시한 'Bifrost-1: Bridging Multimodal LLMs and Diffusion Models with Patch-level CLIP Latents' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLM#Diffusion Model#CLIP Latent#Image Generation#Multimodal Understanding#ControlNet#Training Efficiency2025년 8월 12일댓글 수 로딩 중