[논문리뷰] LightThinker++: From Reasoning Compression to Memory Management저자들은 암시적 압축에서 시작하여 명시적 행동 수준의 관리로 진화하는 LightThinker 계열 모델을 제안한다. LightThinker는 gist tokens와 특수 설계된 attention mask를 활용하여 긴 사고 과정을 컴팩트한 표현으로 변환한다 .#Review#Large Language Models#Reasoning Compression#Memory Management#Agentic Reasoning#Context Optimization2026년 4월 6일댓글 수 로딩 중
[논문리뷰] On-Policy Self-Distillation for Reasoning CompressionZhipeng Wang이 arXiv에 게시한 'On-Policy Self-Distillation for Reasoning Compression' 논문에 대한 자세한 리뷰입니다.#Review#Reasoning Compression#Self-Distillation#On-Policy Learning#Large Language Models#Mathematical Reasoning#Knowledge Distillation#Efficient Inference2026년 3월 5일댓글 수 로딩 중
[논문리뷰] MixReasoning: Switching Modes to ThinkarXiv에 게시된 'MixReasoning: Switching Modes to Think' 논문에 대한 자세한 리뷰입니다.#Review#LLM Reasoning#Chain-of-Thought#Efficiency#LoRA#Adaptive Reasoning#Token Uncertainty#Dynamic Switching#Reasoning Compression2025년 10월 8일댓글 수 로딩 중
[논문리뷰] ThinkDial: An Open Recipe for Controlling Reasoning Effort in Large Language ModelsJiangjie Chen이 arXiv에 게시한 'ThinkDial: An Open Recipe for Controlling Reasoning Effort in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#LLMs#Controllable Reasoning#Computational Efficiency#Reinforcement Learning#Supervised Fine-tuning#Reasoning Compression#Budget-Aware Training2025년 8월 27일댓글 수 로딩 중