[논문리뷰] Phi-4-reasoning-vision-15B Technical ReportarXiv에 게시된 'Phi-4-reasoning-vision-15B Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal LLMs#Efficient AI#Reasoning Models#Vision-Language Models#Data Curation#Mid-Fusion#High-Resolution Vision#Small Language Models2026년 3월 4일댓글 수 로딩 중
[논문리뷰] Free(): Learning to Forget in Malloc-Only Reasoning ModelsarXiv에 게시된 'Free(): Learning to Forget in Malloc-Only Reasoning Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reasoning Models#Context Management#Memory Pruning#LoRA Adapter#Long-Horizon Reasoning#Self-Forgetting2026년 2월 11일댓글 수 로딩 중
[논문리뷰] Data Repetition Beats Data Scaling in Long-CoT Supervised Fine-TuningYuki M. Asano이 arXiv에 게시한 'Data Repetition Beats Data Scaling in Long-CoT Supervised Fine-Tuning' 논문에 대한 자세한 리뷰입니다.#Review#Supervised Fine-tuning (SFT)#Chain-of-Thought (CoT)#Data Repetition#Data Scaling#LLM Training#Generalization#Overfitting#Reasoning Models2026년 2월 11일댓글 수 로딩 중
[논문리뷰] Reasoning Models Generate Societies of ThoughtJames Evans이 arXiv에 게시한 'Reasoning Models Generate Societies of Thought' 논문에 대한 자세한 리뷰입니다.#Review#Reasoning Models#Large Language Models (LLMs)#Multi-Agent Systems#Society of Thought#Mechanistic Interpretability#Reinforcement Learning#Cognitive Diversity#Conversational AI2026년 1월 18일댓글 수 로딩 중
[논문리뷰] Lost in the Noise: How Reasoning Models Fail with Contextual DistractorsarXiv에 게시된 'Lost in the Noise: How Reasoning Models Fail with Contextual Distractors' 논문에 대한 자세한 리뷰입니다.#Review#Robustness#Contextual Distractors#RAG#Reasoning Models#Alignment#Tool Use#NoisyBench#Rationale-Aware Reward#Inverse Scaling2026년 1월 12일댓글 수 로딩 중
[논문리뷰] LYNX: Learning Dynamic Exits for Confidence-Controlled ReasoningarXiv에 게시된 'LYNX: Learning Dynamic Exits for Confidence-Controlled Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Early Exit#Confidence Control#Reasoning Models#Conformal Prediction#LLM Optimization#Dynamic Exits#Hidden States#Chain-of-Thought2025년 12월 9일댓글 수 로딩 중
[논문리뷰] Which Heads Matter for Reasoning? RL-Guided KV Cache CompressionHuan Wang이 arXiv에 게시한 'Which Heads Matter for Reasoning? RL-Guided KV Cache Compression' 논문에 대한 자세한 리뷰입니다.#Review#KV Cache Compression#Large Language Models (LLMs)#Reinforcement Learning (RL)#Reasoning Models#Attention Heads#Chain-of-Thought (CoT)#Memory Efficiency2025년 10월 13일댓글 수 로딩 중
[논문리뷰] Thinking Sparks!: Emergent Attention Heads in Reasoning Models During Post TrainingarXiv에 게시된 'Thinking Sparks!: Emergent Attention Heads in Reasoning Models During Post Training' 논문에 대한 자세한 리뷰입니다.#Review#Mechanistic Interpretability#Attention Heads#Post-Training#Supervised Fine-Tuning (SFT)#Reinforcement Learning (RL)#Circuit Analysis#Reasoning Models#Transformer Architecture2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Attention as a Compass: Efficient Exploration for Process-Supervised RL in Reasoning ModelsarXiv에 게시된 'Attention as a Compass: Efficient Exploration for Process-Supervised RL in Reasoning Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Process-Supervised RL#Large Language Models#Reasoning Models#Attention Mechanism#Efficient Exploration#Adaptive Sampling#Off-Policy Training2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Reasoning Introduces New Poisoning Attacks Yet Makes Them More ComplicatedJamie Hayes이 arXiv에 게시한 'Reasoning Introduces New Poisoning Attacks Yet Makes Them More Complicated' 논문에 대한 자세한 리뷰입니다.#Review#LLM Security#Data Poisoning#Chain-of-Thought#Reasoning Models#Backdoor Attacks#CoT Unfaithfulness#Emergent Robustness2025년 9월 12일댓글 수 로딩 중
[논문리뷰] Test-Time Scaling in Reasoning Models Is Not Effective for Knowledge-Intensive Tasks YetSee-Kiong Ng이 arXiv에 게시한 'Test-Time Scaling in Reasoning Models Is Not Effective for Knowledge-Intensive Tasks Yet' 논문에 대한 자세한 리뷰입니다.#Review#Test-Time Scaling#Reasoning Models#Knowledge-Intensive Tasks#Hallucinations#Factual Accuracy#Chain-of-Thought#Large Language Models2025년 9월 9일댓글 수 로딩 중
[논문리뷰] ReasonRank: Empowering Passage Ranking with Strong Reasoning AbilityYuchen Li이 arXiv에 게시한 'ReasonRank: Empowering Passage Ranking with Strong Reasoning Ability' 논문에 대한 자세한 리뷰입니다.#Review#Passage Ranking#Reasoning Models#Large Language Models#Data Synthesis#Reinforcement Learning#Listwise Reranking#Information Retrieval2025년 8월 12일댓글 수 로딩 중
[논문리뷰] Beyond the Trade-off: Self-Supervised Reinforcement Learning for Reasoning Models' Instruction FollowingJiaqing Liang이 arXiv에 게시한 'Beyond the Trade-off: Self-Supervised Reinforcement Learning for Reasoning Models' Instruction Following' 논문에 대한 자세한 리뷰입니다.#Review#Self-Supervised RL#Instruction Following#Reasoning Models#Large Language Models#Reward Modeling#Curriculum Learning2025년 8월 5일댓글 수 로딩 중