[논문리뷰] daVinci-LLM:Towards the Science of PretrainingarXiv에 게시된 'daVinci-LLM:Towards the Science of Pretraining' 논문에 대한 자세한 리뷰입니다.#Review#Pretraining#Data Darwinism#LLM#Transparency#Data Processing#Scaling Laws#Reasoning2026년 3월 31일댓글 수 로딩 중
[논문리뷰] Chain of World: World Model Thinking in Latent MotionLei Fan이 arXiv에 게시한 'Chain of World: World Model Thinking in Latent Motion' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language-Action Models#World Models#Latent Motion#Embodied Intelligence#Temporal Reasoning#Disentangled Representation#Robotics#Pretraining2026년 3월 3일댓글 수 로딩 중
[논문리뷰] ArXiv-to-Model: A Practical Study of Scientific LM TrainingarXiv에 게시된 'ArXiv-to-Model: A Practical Study of Scientific LM Training' 논문에 대한 자세한 리뷰입니다.#Review#Scientific Language Models#LLM Training#ArXiv#LaTeX Processing#Tokenization#Resource Constraints#Pretraining#Data Engineering2026년 2월 19일댓글 수 로딩 중
[논문리뷰] VLA-JEPA: Enhancing Vision-Language-Action Model with Latent World ModelZezhi Liu이 arXiv에 게시한 'VLA-JEPA: Enhancing Vision-Language-Action Model with Latent World Model' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language-Action (VLA)#Latent World Model#JEPA#Pretraining#Robot Learning#Generalization#Robustness#Human Videos2026년 2월 10일댓글 수 로딩 중
[논문리뷰] Towards Bridging the Gap between Large-Scale Pretraining and Efficient Finetuning for Humanoid ControlYao Su이 arXiv에 게시한 'Towards Bridging the Gap between Large-Scale Pretraining and Efficient Finetuning for Humanoid Control' 논문에 대한 자세한 리뷰입니다.#Review#Humanoid Control#Reinforcement Learning#SAC#Model-Based RL#Pretraining#Finetuning#Physics-Informed World Model#Sim-to-Real Transfer2026년 2월 9일댓글 수 로딩 중
[논문리뷰] Modality Gap-Driven Subspace Alignment Training Paradigm For Multimodal Large Language ModelsHanzhen Zhao이 arXiv에 게시한 'Modality Gap-Driven Subspace Alignment Training Paradigm For Multimodal Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Large Language Models (MLLMs)#Modality Gap#Subspace Alignment#Unpaired Data#Representation Learning#Pretraining#Geometric Alignment2026년 2월 9일댓글 수 로딩 중
[논문리뷰] MetricAnything: Scaling Metric Depth Pretraining with Noisy Heterogeneous SourcesJianxun Cui이 arXiv에 게시한 'MetricAnything: Scaling Metric Depth Pretraining with Noisy Heterogeneous Sources' 논문에 대한 자세한 리뷰입니다.#Review#Metric Depth Estimation#Pretraining#Foundation Models#Sparse Prompts#Heterogeneous Data#Zero-Shot Learning#Multi-modal Learning2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Pretraining Frame Preservation in Autoregressive Video Memory CompressionBeijia Lu이 arXiv에 게시한 'Pretraining Frame Preservation in Autoregressive Video Memory Compression' 논문에 대한 자세한 리뷰입니다.#Review#Video Compression#Autoregressive Models#Memory Compression#Frame Preservation#Pretraining#Video Generation#Diffusion Models#Long-Range Consistency2025년 12월 31일댓글 수 로딩 중
[논문리뷰] PretrainZero: Reinforcement Active PretrainingGuoqi Li이 arXiv에 게시한 'PretrainZero: Reinforcement Active Pretraining' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Active Learning#Pretraining#Large Language Models#Self-Supervised Learning#Masked Language Modeling#Generalization#Reasoning2025년 12월 3일댓글 수 로딩 중
[논문리뷰] iFlyBot-VLA Technical ReportJiajia wu이 arXiv에 게시한 'iFlyBot-VLA Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language-Action Models#Robotics#Imitation Learning#Latent Actions#Diffusion Models#Dual-Arm Manipulation#Pretraining#Flow-Matching2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Rethinking Visual Intelligence: Insights from Video PretrainingAhmad Rahimi이 arXiv에 게시한 'Rethinking Visual Intelligence: Insights from Video Pretraining' 논문에 대한 자세한 리뷰입니다.#Review#Video Diffusion Models#Visual Intelligence#Pretraining#Foundation Models#Low-resource Learning#Inductive Biases#Visual Reasoning#Image-to-Image Tasks2025년 10월 29일댓글 수 로딩 중
[논문리뷰] ATLAS: Adaptive Transfer Scaling Laws for Multilingual Pretraining, Finetuning, and Decoding the Curse of MultilingualityarXiv에 게시된 'ATLAS: Adaptive Transfer Scaling Laws for Multilingual Pretraining, Finetuning, and Decoding the Curse of Multilinguality' 논문에 대한 자세한 리뷰입니다.#Review#Multilingual LLMs#Scaling Laws#Transfer Learning#Curse of Multilinguality#Pretraining#Finetuning#Language Models#Adaptive Scaling2025년 10월 29일댓글 수 로딩 중
[논문리뷰] X-VLA: Soft-Prompted Transformer as Scalable Cross-Embodiment Vision-Language-Action ModelXirui Kang이 arXiv에 게시한 'X-VLA: Soft-Prompted Transformer as Scalable Cross-Embodiment Vision-Language-Action Model' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language-Action (VLA) Models#Soft Prompts#Transformer#Cross-Embodiment#Robotics#Pretraining#Domain Adaptation#Flow Matching2025년 10월 16일댓글 수 로딩 중
[논문리뷰] KORMo: Korean Open Reasoning Model for EveryonearXiv에 게시된 'KORMo: Korean Open Reasoning Model for Everyone' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Model#Korean#Bilingual#Synthetic Data#Fully Open Model#Tokenizer#Reasoning#Pretraining#Instruction Tuning2025년 10월 13일댓글 수 로딩 중
[논문리뷰] Front-Loading Reasoning: The Synergy between Pretraining and Post-Training DataarXiv에 게시된 'Front-Loading Reasoning: The Synergy between Pretraining and Post-Training Data' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Pretraining#Supervised Fine-tuning#Reasoning Data#Data Allocation#Diversity#Quality#Reinforcement Learning2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Why Language Models HallucinateEdwin Zhang이 arXiv에 게시한 'Why Language Models Hallucinate' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Hallucination#Pretraining#Post-training#Evaluation Metrics#Binary Classification#Uncertainty Quantification#Calibration2025년 9월 8일댓글 수 로딩 중