[논문리뷰] Efficient Exploration at ScalearXiv에 게시된 'Efficient Exploration at Scale' 논문에 대한 자세한 리뷰입니다.#Review#RLHF#Data Efficiency#Active Exploration#Epistemic Neural Network#Information-Directed Sampling#Scaling Laws#Large Language Models#Online Learning2026년 3월 18일댓글 수 로딩 중
[논문리뷰] In-Context Reinforcement Learning for Tool Use in Large Language ModelsarXiv에 게시된 'In-Context Reinforcement Learning for Tool Use in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Tool Use#In-Context Learning#Few-Shot Learning#SFT-free#Data Efficiency#Curriculum Learning2026년 3월 11일댓글 수 로딩 중
[논문리뷰] CHIMERA: Compact Synthetic Data for Generalizable LLM ReasoningarXiv에 게시된 'CHIMERA: Compact Synthetic Data for Generalizable LLM Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Synthetic Data#LLM Reasoning#Chain-of-Thought#Data Efficiency#Post-training#Generalization#Quality Control#Domain Coverage2026년 3월 2일댓글 수 로딩 중
[논문리뷰] Selective Training for Large Vision Language Models via Visual Information GainarXiv에 게시된 'Selective Training for Large Vision Language Models via Visual Information Gain' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models#Visual Grounding#Language Bias Mitigation#Selective Training#Perplexity Metric#Data Efficiency#Multimodal AI2026년 2월 22일댓글 수 로딩 중
[논문리뷰] TreeCUA: Efficiently Scaling GUI Automation with Tree-Structured Verifiable EvolutionLiming Zheng이 arXiv에 게시한 'TreeCUA: Efficiently Scaling GUI Automation with Tree-Structured Verifiable Evolution' 논문에 대한 자세한 리뷰입니다.#Review#GUI Automation#Computer-Use Agents#Trajectory Synthesis#Tree-Structured Exploration#Multi-Agent Framework#Reinforcement Learning#DPO#Data Efficiency2026년 2월 10일댓글 수 로딩 중
[논문리뷰] Training Data Efficiency in Multimodal Process Reward ModelsHaolin Liu이 arXiv에 게시한 'Training Data Efficiency in Multimodal Process Reward Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Process Reward Models (MPRMs)#Data Efficiency#Monte Carlo Annotation#Data Selection#Balanced-Information Score (BIS)#Label Mixture#Label Reliability#Computational Cost Reduction2026년 2월 4일댓글 수 로딩 중
[논문리뷰] Innovator-VL: A Multimodal Large Language Model for Scientific DiscoveryarXiv에 게시된 'Innovator-VL: A Multimodal Large Language Model for Scientific Discovery' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLM#Scientific AI#Data Efficiency#Reinforcement Learning#Vision-Language Model#Scientific Reasoning#Reproducible AI2026년 1월 28일댓글 수 로딩 중
[논문리뷰] Towards Open-Vocabulary Industrial Defect Understanding with a Large-Scale Multimodal DatasetYuanFu Yang이 arXiv에 게시한 'Towards Open-Vocabulary Industrial Defect Understanding with a Large-Scale Multimodal Dataset' 논문에 대한 자세한 리뷰입니다.#Review#Industrial Defect Detection#Multimodal Dataset#Vision-Language Model#Diffusion Model#Open-Vocabulary Learning#Quality Inspection#Data Efficiency#Foundation Model2026년 1월 8일댓글 수 로딩 중
[논문리뷰] Real2Edit2Real: Generating Robotic Demonstrations via a 3D Control InterfaceLiliang Chen이 arXiv에 게시한 'Real2Edit2Real: Generating Robotic Demonstrations via a 3D Control Interface' 논문에 대한 자세한 리뷰입니다.#Review#Robotics#Demonstration Generation#3D Control Interface#Data Efficiency#Visuomotor Policy Learning#Spatial Generalization#Depth Map#Video Generation2025년 12월 22일댓글 수 로딩 중
[논문리뷰] GenEnv: Difficulty-Aligned Co-Evolution Between LLM Agents and Environment SimulatorsarXiv에 게시된 'GenEnv: Difficulty-Aligned Co-Evolution Between LLM Agents and Environment Simulators' 논문에 대한 자세한 리뷰입니다.#Review#LLM Agents#Environment Simulation#Co-evolution#Curriculum Learning#Data Efficiency#Reinforcement Learning#Adaptive Simulation#Difficulty Alignment2025년 12월 22일댓글 수 로딩 중
[논문리뷰] Alchemist: Unlocking Efficiency in Text-to-Image Model Training via Meta-Gradient Data SelectionJiarong Ou이 arXiv에 게시한 'Alchemist: Unlocking Efficiency in Text-to-Image Model Training via Meta-Gradient Data Selection' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Image#Data Selection#Meta-Learning#Meta-Gradient#Data Efficiency#Generative Models#Coreset Selection#Data Pruning2025년 12월 18일댓글 수 로딩 중
[논문리뷰] Xmodel-2.5: 1.3B Data-Efficient Reasoning SLMarXiv에 게시된 'Xmodel-2.5: 1.3B Data-Efficient Reasoning SLM' 논문에 대한 자세한 리뷰입니다.#Review#Small Language Models#Data Efficiency#Reasoning#Maximal-Update Parameterization#FP8 Mixed Precision#Optimizer Scheduling#Long-Context Adaptation#Agent AI2025년 11월 30일댓글 수 로딩 중
[논문리뷰] AnyTalker: Scaling Multi-Person Talking Video Generation with Interactivity RefinementYicheng Ji이 arXiv에 게시한 'AnyTalker: Scaling Multi-Person Talking Video Generation with Interactivity Refinement' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Person Video Generation#Audio-Driven Animation#Diffusion Models#Interactivity Refinement#Identity-Aware Attention#Scalability#Data Efficiency2025년 11월 30일댓글 수 로딩 중
[논문리뷰] Pillar-0: A New Frontier for Radiology Foundation ModelsarXiv에 게시된 'Pillar-0: A New Frontier for Radiology Foundation Models' 논문에 대한 자세한 리뷰입니다.#Review#Radiology Foundation Model#Volumetric Imaging#Multi-window Tokenization#Multi-scale Attention#Contrastive Learning#Clinical Evaluation#Data Efficiency#Medical Imaging2025년 11월 24일댓글 수 로딩 중
[논문리뷰] RedOne 2.0: Rethinking Domain-specific LLM Post-Training in Social Networking ServicesZijie Meng이 arXiv에 게시한 'RedOne 2.0: Rethinking Domain-specific LLM Post-Training in Social Networking Services' 논문에 대한 자세한 리뷰입니다.#Review#LLM Post-Training#Domain Adaptation#Social Networking Services#Reinforcement Learning#Supervised Fine-Tuning#Catastrophic Forgetting#Data Efficiency2025년 11월 10일댓글 수 로딩 중
[논문리뷰] Diffusion Language Models are Super Data LearnersarXiv에 게시된 'Diffusion Language Models are Super Data Learners' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Language Models#Autoregressive Models#Data Efficiency#Scaling Laws#Data-Constrained Learning#Crossover Phenomenon#Pre-training#Masked Diffusion2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Data-Efficient RLVR via Off-Policy Influence GuidanceJiale Cheng이 arXiv에 게시한 'Data-Efficient RLVR via Off-Policy Influence Guidance' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning with Verifiable Rewards (RLVR)#Influence Functions#Data Selection#Off-Policy Learning#Curriculum Learning#Large Language Models (LLMs)#Sparse Random Projection#Data Efficiency2025년 11월 9일댓글 수 로딩 중
[논문리뷰] ReCode: Unify Plan and Action for Universal Granularity ControlYifan Wu이 arXiv에 게시한 'ReCode: Unify Plan and Action for Universal Granularity Control' 논문에 대한 자세한 리뷰입니다.#Review#LLM Agents#Decision Granularity Control#Recursive Code Generation#Hierarchical Planning#Action Unification#Program Synthesis#Data Efficiency2025년 10월 28일댓글 수 로딩 중
[논문리뷰] LimRank: Less is More for Reasoning-Intensive Information RerankingArman Cohan이 arXiv에 게시한 'LimRank: Less is More for Reasoning-Intensive Information Reranking' 논문에 대한 자세한 리뷰입니다.#Review#Information Reranking#Large Language Models#Data Synthesis#Reasoning-Intensive Retrieval#Low-Resource Learning#Data Efficiency#Instruction Following2025년 10월 28일댓글 수 로딩 중
[논문리뷰] Spatial Forcing: Implicit Spatial Representation Alignment for Vision-language-action ModelarXiv에 게시된 'Spatial Forcing: Implicit Spatial Representation Alignment for Vision-language-action Model' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language-Action Models#Spatial Perception#Implicit Representation Alignment#3D Foundation Models#Robotics#Data Efficiency#Representation Learning2025년 10월 15일댓글 수 로딩 중
[논문리뷰] Webscale-RL: Automated Data Pipeline for Scaling RL Data to Pretraining LevelsarXiv에 게시된 'Webscale-RL: Automated Data Pipeline for Scaling RL Data to Pretraining Levels' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning (RL)#Large Language Models (LLMs)#Data Pipeline#Web-scale Data#Question-Answering (QA)#Data Generation#Data Diversity#Data Efficiency2025년 10월 13일댓글 수 로딩 중
[논문리뷰] Better Together: Leveraging Unpaired Multimodal Data for Stronger Unimodal ModelsarXiv에 게시된 'Better Together: Leveraging Unpaired Multimodal Data for Stronger Unimodal Models' 논문에 대한 자세한 리뷰입니다.#Review#Unpaired Multimodal Learning#Unimodal Representation#Weight Sharing#Cross-modal Transfer#Fisher Information#Self-supervised Learning#Multimodal Neurons#Data Efficiency2025년 10월 13일댓글 수 로딩 중
[논문리뷰] Winning the Pruning Gamble: A Unified Approach to Joint Sample and Token Pruning for Efficient Supervised Fine-TuningYue Min이 arXiv에 게시한 'Winning the Pruning Gamble: A Unified Approach to Joint Sample and Token Pruning for Efficient Supervised Fine-Tuning' 논문에 대한 자세한 리뷰입니다.#Review#LLM SFT#Data Pruning#Sample Pruning#Token Pruning#Error-Uncertainty Plane#Q-Tuning#Data Efficiency#Dynamic Pruning2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Vision-Zero: Scalable VLM Self-Improvement via Strategic Gamified Self-PlayJing Shi이 arXiv에 게시한 'Vision-Zero: Scalable VLM Self-Improvement via Strategic Gamified Self-Play' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models (VLMs)#Self-Play#Reinforcement Learning#Gamification#Data Efficiency#Strategic Reasoning#Multimodal AI#Self-Improvement2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Thinking Augmented Pre-trainingFuru Wei이 arXiv에 게시한 'Thinking Augmented Pre-training' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models (LLMs)#Pre-training#Data Augmentation#Reasoning#Data Efficiency#Thinking Trajectories2025년 9월 26일댓글 수 로딩 중
[논문리뷰] Do You Need Proprioceptive States in Visuomotor Policies?Yushen Liang이 arXiv에 게시한 'Do You Need Proprioceptive States in Visuomotor Policies?' 논문에 대한 자세한 리뷰입니다.#Review#Visuomotor Policies#Spatial Generalization#Imitation Learning#Proprioception#State-free Policies#Robot Manipulation#End-Effector Control#Data Efficiency2025년 9월 24일댓글 수 로딩 중