[논문리뷰] DataFlex: A Unified Framework for Data-Centric Dynamic Training of Large Language Models본 논문은 LLaMA-Factory의 모델 관리 및 최적화 기능을 보존하면서, 데이터 최적화 전략을 모듈형으로 통합한 DataFlex를 제안합니다. DataFlex는 7개의 데이터 선택, 2개의 데이터 혼합, 1개의 재가중치 알고리즘을 통합하여 단일 인터페이스 하에서 연구 및 실행할 수 있도록 설계되었습니다 .#Review#Data-Centric AI#Large Language Models#Dynamic Training#Data Selection#Data Mixture#Data Reweighting#LLaMA-Factory2026년 4월 2일댓글 수 로딩 중
[논문리뷰] Efficient RLVR Training via Weighted Mutual Information Data SelectionarXiv에 게시된 'Efficient RLVR Training via Weighted Mutual Information Data Selection' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Data Selection#Mutual Information#Epistemic Uncertainty#LLMs#RLVR#Training Efficiency2026년 3월 2일댓글 수 로딩 중
[논문리뷰] A Critical Look at Targeted Instruction Selection: Disentangling What Matters (and What Doesn't)arXiv에 게시된 'A Critical Look at Targeted Instruction Selection: Disentangling What Matters (and What Doesn't)' 논문에 대한 자세한 리뷰입니다.#Review#Instruction Tuning#Data Selection#Large Language Models (LLMs)#Gradient-based Representations#Optimal Transport#Generalization Bounds#Data Representation2026년 2월 16일댓글 수 로딩 중
[논문리뷰] OPUS: Towards Efficient and Principled Data Selection in Large Language Model Pre-training in Every IterationarXiv에 게시된 'OPUS: Towards Efficient and Principled Data Selection in Large Language Model Pre-training in Every Iteration' 논문에 대한 자세한 리뷰입니다.#Review#Data Selection#Large Language Model#Pre-training#Optimizer-Induced Utility#Ghost Technique#CountSketch#Boltzmann Sampling2026년 2월 10일댓글 수 로딩 중
[논문리뷰] Training Data Efficiency in Multimodal Process Reward ModelsHaolin Liu이 arXiv에 게시한 'Training Data Efficiency in Multimodal Process Reward Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Process Reward Models (MPRMs)#Data Efficiency#Monte Carlo Annotation#Data Selection#Balanced-Information Score (BIS)#Label Mixture#Label Reliability#Computational Cost Reduction2026년 2월 4일댓글 수 로딩 중
[논문리뷰] Alchemist: Unlocking Efficiency in Text-to-Image Model Training via Meta-Gradient Data SelectionJiarong Ou이 arXiv에 게시한 'Alchemist: Unlocking Efficiency in Text-to-Image Model Training via Meta-Gradient Data Selection' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Image#Data Selection#Meta-Learning#Meta-Gradient#Data Efficiency#Generative Models#Coreset Selection#Data Pruning2025년 12월 18일댓글 수 로딩 중
[논문리뷰] Data-Efficient RLVR via Off-Policy Influence GuidanceJiale Cheng이 arXiv에 게시한 'Data-Efficient RLVR via Off-Policy Influence Guidance' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning with Verifiable Rewards (RLVR)#Influence Functions#Data Selection#Off-Policy Learning#Curriculum Learning#Large Language Models (LLMs)#Sparse Random Projection#Data Efficiency2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Learning from the Best, Differently: A Diversity-Driven Rethinking on Data SelectionYi Cheng이 arXiv에 게시한 'Learning from the Best, Differently: A Diversity-Driven Rethinking on Data Selection' 논문에 대한 자세한 리뷰입니다.#Review#Data Selection#Large Language Models (LLMs)#Data Diversity#Data Quality#Principal Component Analysis (PCA)#Orthogonal Dimensions#Pre-training2025년 10월 23일댓글 수 로딩 중
[논문리뷰] Refusal Falls off a Cliff: How Safety Alignment Fails in Reasoning?arXiv에 게시된 'Refusal Falls off a Cliff: How Safety Alignment Fails in Reasoning?' 논문에 대한 자세한 리뷰입니다.#Review#Safety Alignment#Large Reasoning Models#Mechanistic Interpretability#Refusal Cliff#Attention Heads#Data Selection#Linear Probing2025년 10월 8일댓글 수 로딩 중