[논문리뷰] 2Xplat: Two Experts Are Better Than One GeneralistarXiv에 게시된 '2Xplat: Two Experts Are Better Than One Generalist' 논문에 대한 자세한 리뷰입니다.#Review#3D Gaussian Splatting (3DGS)#Pose-free#Feed-forward#Two-Experts Architecture#Geometry Estimation#Appearance Modeling#Novel View Synthesis#Training Efficiency2026년 3월 24일댓글 수 로딩 중
[논문리뷰] Efficient RLVR Training via Weighted Mutual Information Data SelectionarXiv에 게시된 'Efficient RLVR Training via Weighted Mutual Information Data Selection' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Data Selection#Mutual Information#Epistemic Uncertainty#LLMs#RLVR#Training Efficiency2026년 3월 2일댓글 수 로딩 중
[논문리뷰] Unified Latents (UL): How to train your latentsarXiv에 게시된 'Unified Latents (UL): How to train your latents' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Latent Representation Learning#VAE#Image Generation#Video Generation#Bitrate Control#Training Efficiency#Diffusion Prior#Diffusion Decoder2026년 2월 19일댓글 수 로딩 중
[논문리뷰] Jet-RL: Enabling On-Policy FP8 Reinforcement Learning with Unified Training and Rollout Precision FlowarXiv에 게시된 'Jet-RL: Enabling On-Policy FP8 Reinforcement Learning with Unified Training and Rollout Precision Flow' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#FP8 Quantization#LLM Training#On-Policy RL#Unified Precision Flow#Training Efficiency#Rollout Acceleration2026년 1월 25일댓글 수 로딩 중
[논문리뷰] MIRO: MultI-Reward cOnditioned pretraining improves T2I quality and efficiencyDavid Picard이 arXiv에 게시한 'MIRO: MultI-Reward cOnditioned pretraining improves T2I quality and efficiency' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Image Generation#Multi-Reward Learning#Flow Matching#User Preference Alignment#Training Efficiency#Compositional Reasoning#Conditional Generation2025년 10월 31일댓글 수 로딩 중
[논문리뷰] Latent Diffusion Model without Variational AutoencoderarXiv에 게시된 'Latent Diffusion Model without Variational Autoencoder' 논문에 대한 자세한 리뷰입니다.#Review#Latent Diffusion Model#Variational Autoencoder#Self-supervised Learning#DINO Features#Generative Models#Image Generation#Training Efficiency#Unified Representation2025년 10월 20일댓글 수 로딩 중
[논문리뷰] Meta-Awareness Enhances Reasoning Models: Self-Alignment Reinforcement LearningarXiv에 게시된 'Meta-Awareness Enhances Reasoning Models: Self-Alignment Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Meta-Awareness#Reinforcement Learning#Self-Alignment#LLM Reasoning#Training Efficiency#Generalization#Predictive Gating2025년 10월 10일댓글 수 로딩 중
[논문리뷰] OpenVision 2: A Family of Generative Pretrained Visual Encoders for Multimodal LearningZirui Wang이 arXiv에 게시한 'OpenVision 2: A Family of Generative Pretrained Visual Encoders for Multimodal Learning' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Learning#Vision Encoder#Generative Pretraining#Captioning Loss#Training Efficiency#Image-Text Models#Large Language Models2025년 9월 3일댓글 수 로딩 중
[논문리뷰] Ovis2.5 Technical ReportYang Li이 arXiv에 게시한 'Ovis2.5 Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLMs#Native Resolution Vision#Deep Reasoning#Chart Analysis#OCR#Visual Grounding#Training Efficiency#Preference Optimization2025년 8월 19일댓글 수 로딩 중
[논문리뷰] Bifrost-1: Bridging Multimodal LLMs and Diffusion Models with Patch-level CLIP LatentsMohit Bansal이 arXiv에 게시한 'Bifrost-1: Bridging Multimodal LLMs and Diffusion Models with Patch-level CLIP Latents' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLM#Diffusion Model#CLIP Latent#Image Generation#Multimodal Understanding#ControlNet#Training Efficiency2025년 8월 12일댓글 수 로딩 중