[논문리뷰] VTC-R1: Vision-Text Compression for Efficient Long-Context ReasoningarXiv에 게시된 'VTC-R1: Vision-Text Compression for Efficient Long-Context Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Text Compression#Long-Context Reasoning#LLM Efficiency#Vision-Language Models#Iterative Reasoning#Mathematical Problem Solving#Inference Speedup2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Motif 2 12.7B technical reportarXiv에 게시된 'Motif 2 12.7B technical report' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Model#LLM Efficiency#Grouped Differential Attention#Kernel Fusion#Parallel Muon#Supervised Fine-tuning#Architectural Scaling#Instruction Following2025년 11월 12일댓글 수 로딩 중
[논문리뷰] A Stitch in Time Saves Nine: Proactive Self-Refinement for Language ModelsZishang Jiang이 arXiv에 게시한 'A Stitch in Time Saves Nine: Proactive Self-Refinement for Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Self-Refinement#Language Models#Reinforcement Learning#Proactive AI#Generation Process#Markov Decision Process#Adaptive Learning#LLM Efficiency2025년 8월 20일댓글 수 로딩 중
[논문리뷰] Don't Overthink It: A Survey of Efficient R1-style Large Reasoning ModelsFangzhou Yao이 arXiv에 게시한 'Don't Overthink It: A Survey of Efficient R1-style Large Reasoning Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Reasoning Models#Efficient Reasoning#Chain-of-Thought#Model Optimization#Model Collaboration#Overthinking Problem#LLM Efficiency2025년 8월 8일댓글 수 로딩 중