[논문리뷰] OptiMer: Optimal Distribution Vector Merging Is Better than Data Mixing for Continual Pre-TrainingarXiv에 게시된 'OptiMer: Optimal Distribution Vector Merging Is Better than Data Mixing for Continual Pre-Training' 논문에 대한 자세한 리뷰입니다.#Review#Continual Pre-training#Model Merging#Distribution Vector#Bayesian Optimization#LLM Adaptation2026년 3월 31일댓글 수 로딩 중
[논문리뷰] MemSifter: Offloading LLM Memory Retrieval via Outcome-Driven Proxy ReasoningLiancheng Zhang이 arXiv에 게시한 'MemSifter: Offloading LLM Memory Retrieval via Outcome-Driven Proxy Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#LLM Memory Retrieval#Proxy Model#Reinforcement Learning#Outcome-Driven Rewards#Long-Term Memory#Curriculum Learning#Model Merging#Inference-Time Scaling2026년 3월 4일댓글 수 로딩 중
[논문리뷰] What does RL improve for Visual Reasoning? A Frankenstein-Style AnalysisarXiv에 게시된 'What does RL improve for Visual Reasoning? A Frankenstein-Style Analysis' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Visual Reasoning#Vision-Language Models#Causal Probing#Model Merging#Parameter Analysis#Transformer Layers#Functional Localization2026년 2월 15일댓글 수 로딩 중
[논문리뷰] UI-Venus-1.5 Technical ReportarXiv에 게시된 'UI-Venus-1.5 Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#GUI Agent#MLLM#Reinforcement Learning#Model Merging#GUI Grounding#Task Navigation#Online-RL#Offline-RL2026년 2월 10일댓글 수 로딩 중
[논문리뷰] Decouple Searching from Training: Scaling Data Mixing via Model Merging for Large Language Model Pre-trainingHaifeng Liu이 arXiv에 게시한 'Decouple Searching from Training: Scaling Data Mixing via Model Merging for Large Language Model Pre-training' 논문에 대한 자세한 리뷰입니다.#Review#LLM Pre-training#Data Mixture Optimization#Model Merging#Proxy Models#Resource Efficiency#DeMix#Corpus Curation2026년 2월 3일댓글 수 로딩 중
[논문리뷰] GTR-Turbo: Merged Checkpoint is Secretly a Free Teacher for Agentic VLM TrainingYuanchun Shi이 arXiv에 게시한 'GTR-Turbo: Merged Checkpoint is Secretly a Free Teacher for Agentic VLM Training' 논문에 대한 자세한 리뷰입니다.#Review#Multi-turn Reinforcement Learning#Vision-Language Models (VLMs)#Agentic AI#Knowledge Distillation#Model Merging#PPO#Thought Guidance#Cost Efficiency2025년 12월 25일댓글 수 로딩 중
[논문리뷰] Llama-Embed-Nemotron-8B: A Universal Text Embedding Model for Multilingual and Cross-Lingual TasksarXiv에 게시된 'Llama-Embed-Nemotron-8B: A Universal Text Embedding Model for Multilingual and Cross-Lingual Tasks' 논문에 대한 자세한 리뷰입니다.#Review#Text Embedding#Multilingual#Cross-Lingual#Contrastive Learning#Model Merging#Synthetic Data Generation#Instruction-Tuning#LLM2025년 11월 10일댓글 수 로딩 중
[논문리뷰] RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model MergingarXiv에 게시된 'RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model Merging' 논문에 대한 자세한 리뷰입니다.#Review#Catastrophic Forgetting#Continual Learning#Model Merging#LLMs#Representation Learning#Data-free Learning#Hierarchical Parameter Fusion2025년 10월 27일댓글 수 로딩 중
[논문리뷰] Model Merging with Functional Dual AnchorsarXiv에 게시된 'Model Merging with Functional Dual Anchors' 논문에 대한 자세한 리뷰입니다.#Review#Model Merging#Functional Dual Anchors#Input-Representation Space#Task Vectors#Knowledge Integration#Foundation Models#Gradient Matching#Post-training Strategy2025년 10월 27일댓글 수 로딩 중
[논문리뷰] Directional Reasoning Injection for Fine-Tuning MLLMsJialian Wu이 arXiv에 게시한 'Directional Reasoning Injection for Fine-Tuning MLLMs' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLMs#Reasoning Transfer#Gradient-based Fine-tuning#Model Merging#Parameter-Efficient Learning#Supervised Fine-tuning#Directional Prior2025년 10월 23일댓글 수 로딩 중
[논문리뷰] Revisiting Model Interpolation for Efficient ReasoningarXiv에 게시된 'Revisiting Model Interpolation for Efficient Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Model Interpolation#Efficient Reasoning#Large Language Models#Chain-of-Thought#Model Merging#Performance Dynamics#Ablation Study2025년 10월 16일댓글 수 로딩 중
[논문리뷰] Hala Technical Report: Building Arabic-Centric Instruction & Translation Models at ScaleBernard Ghanem이 arXiv에 게시한 'Hala Technical Report: Building Arabic-Centric Instruction & Translation Models at Scale' 논문에 대한 자세한 리뷰입니다.#Review#Arabic NLP#Instruction Tuning#Machine Translation#Large Language Models#FP8 Quantization#Data Bootstrapping#Model Merging#Language-Centric AI2025년 9월 18일댓글 수 로딩 중
[논문리뷰] Delta Activations: A Representation for Finetuned Large Language ModelsSer-Nam Lim이 arXiv에 게시한 'Delta Activations: A Representation for Finetuned Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#LLM Embedding#Delta Activations#Finetuned Models#Model Representation#Model Clustering#Additive Property#Task Embedding#Model Merging2025년 9월 5일댓글 수 로딩 중
[논문리뷰] Reasoning Vectors: Transferring Chain-of-Thought Capabilities via Task ArithmeticBernard Ghanem이 arXiv에 게시한 'Reasoning Vectors: Transferring Chain-of-Thought Capabilities via Task Arithmetic' 논문에 대한 자세한 리뷰입니다.#Review#Reasoning Vectors#Task Arithmetic#Chain-of-Thought#LLMs#Reinforcement Learning#Model Merging#Parameter Transfer2025년 9월 3일댓글 수 로딩 중
[논문리뷰] MedSAMix: A Training-Free Model Merging Approach for Medical Image SegmentationJonas Geiping이 arXiv에 게시한 'MedSAMix: A Training-Free Model Merging Approach for Medical Image Segmentation' 논문에 대한 자세한 리뷰입니다.#Review#Medical Image Segmentation#Model Merging#Training-Free#SAM#Generalization#Zero-Order Optimization#Bayesian Optimization2025년 8월 20일댓글 수 로딩 중
[논문리뷰] VisCodex: Unified Multimodal Code Generation via Merging Vision and Coding ModelsDongdong Zhang이 arXiv에 게시한 'VisCodex: Unified Multimodal Code Generation via Merging Vision and Coding Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLM#Code Generation#Model Merging#Task Vectors#Vision-Language Model#Coding LLM#Instruction Tuning#Benchmark2025년 8월 14일댓글 수 로딩 중
[논문리뷰] Aryabhata: An exam-focused language model for JEE MathSandeep Varma이 arXiv에 게시한 'Aryabhata: An exam-focused language model for JEE Math' 논문에 대한 자세한 리뷰입니다.#Review#Language Model#Math Reasoning#JEE#Supervised Fine-Tuning#Reinforcement Learning#Model Merging#Chain-of-Thought#Curriculum Learning2025년 8월 13일댓글 수 로딩 중