[논문리뷰] In-Place Test-Time TrainingDi He이 arXiv에 게시한 'In-Place Test-Time Training' 논문에 대한 자세한 리뷰입니다.#Review#In-Place Test-Time Training#Large Language Models#Fast Weights#Next-Token Prediction#Chunk-Wise Update#Continual Learning2026년 4월 7일댓글 수 로딩 중
[논문리뷰] Brainstacks: Cross-Domain Cognitive Capabilities via Frozen MoE-LoRA Stacks for Continual LLM LearningarXiv에 게시된 'Brainstacks: Cross-Domain Cognitive Capabilities via Frozen MoE-LoRA Stacks for Continual LLM Learning' 논문에 대한 자세한 리뷰입니다.#Review#Continual Learning#LLM#MoE-LoRA#Null-Space Projection#Meta-Router#Residual Boosting2026년 4월 2일댓글 수 로딩 중
[논문리뷰] REVERE: Reflective Evolving Research Engineer for Scientific WorkflowsArman Cohan이 arXiv에 게시한 'REVERE: Reflective Evolving Research Engineer for Scientific Workflows' 논문에 대한 자세한 리뷰입니다.#Review#LLM Agents#Self-Adaptation#Research-Coding Workflows#Prompt Optimization#Global Training Context#Code-Based Edits#Continual Learning#Semantic Drift2026년 3월 23일댓글 수 로딩 중
[논문리뷰] Deep Tabular Research via Continual Experience-Driven ExecutionarXiv에 게시된 'Deep Tabular Research via Continual Experience-Driven Execution' 논문에 대한 자세한 리뷰입니다.#Review#Deep Tabular Research#LLM Agents#Tabular Reasoning#Continual Learning#Experience-Driven Execution#Multi-hop Reasoning#Unstructured Tables2026년 3월 22일댓글 수 로딩 중
[논문리뷰] Memento-Skills: Let Agents Design AgentsarXiv에 게시된 'Memento-Skills: Let Agents Design Agents' 논문에 대한 자세한 리뷰입니다.#Review#LLM Agents#Continual Learning#Skill Learning#Reinforcement Learning#Memory-based Agents#Agent Design#Read-Write Reflective Learning#Offline RL2026년 3월 19일댓글 수 로딩 중
[논문리뷰] XSkill: Continual Learning from Experience and Skills in Multimodal AgentsFung이 arXiv에 게시한 'XSkill: Continual Learning from Experience and Skills in Multimodal Agents' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Agents#Continual Learning#Experience Learning#Skill Learning#Tool Use#Knowledge Base#Visual Reasoning2026년 3월 12일댓글 수 로딩 중
[논문리뷰] Can Large Language Models Keep Up? Benchmarking Online Adaptation to Continual Knowledge StreamsarXiv에 게시된 'Can Large Language Models Keep Up? Benchmarking Online Adaptation to Continual Knowledge Streams' 논문에 대한 자세한 리뷰입니다.#Review#Online Adaptation#Continual Learning#Knowledge Streams#Large Language Models#Benchmarking#State Tracking#Retrieval Augmented Generation#Agentic Memory2026년 3월 11일댓글 수 로딩 중
[논문리뷰] Efficient Continual Learning in Language Models via Thalamically Routed Cortical ColumnsAfshin Khadangi이 arXiv에 게시한 'Efficient Continual Learning in Language Models via Thalamically Routed Cortical Columns' 논문에 대한 자세한 리뷰입니다.#Review#Continual Learning#Language Models#Sparse Routing#Cortical Columns#Thalamic Routing#Catastrophic Forgetting#Stability-Plasticity2026년 2월 26일댓글 수 로딩 중
[논문리뷰] GigaBrain-0.5M*: a VLA That Learns From World Model-Based Reinforcement LearningarXiv에 게시된 'GigaBrain-0.5M*: a VLA That Learns From World Model-Based Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#VLA Models#World Models#Reinforcement Learning#Robotic Manipulation#Long-Horizon Control#Human-in-the-Loop#Continual Learning2026년 2월 12일댓글 수 로딩 중
[논문리뷰] Continual GUI AgentsarXiv에 게시된 'Continual GUI Agents' 논문에 대한 자세한 리뷰입니다.#Review#Continual Learning#GUI Agents#Reinforcement Learning#Grounding#Domain Adaptation#Resolution Adaptation#Reward Shaping#Human-Computer Interaction2026년 2월 1일댓글 수 로딩 중
[논문리뷰] CLARE: Continual Learning for Vision-Language-Action Models via Autonomous Adapter Routing and ExpansionarXiv에 게시된 'CLARE: Continual Learning for Vision-Language-Action Models via Autonomous Adapter Routing and Expansion' 논문에 대한 자세한 리뷰입니다.#Review#Continual Learning#Vision-Language-Action Models#Adapter Learning#Catastrophic Forgetting#Autonomous Routing#Parameter-Efficient Learning#Robotics2026년 1월 19일댓글 수 로딩 중
[논문리뷰] Distilling Feedback into Memory-as-a-Toolvicgalle이 arXiv에 게시한 'Distilling Feedback into Memory-as-a-Tool' 논문에 대한 자세한 리뷰입니다.#Review#LLM#Continual Learning#Memory-Augmented Agents#Self-Correction#Feedback Distillation#Tool Use#Inference Cost Amortization#Rubric-based Learning2026년 1월 11일댓글 수 로딩 중
[논문리뷰] Nested Learning: The Illusion of Deep Learning ArchitecturesVahab Mirrokni이 arXiv에 게시한 'Nested Learning: The Illusion of Deep Learning Architectures' 논문에 대한 자세한 리뷰입니다.#Review#Nested Learning#Continual Learning#In-context Learning#Associative Memory#Multi-Timescale Memory#Self-Modifying Models#Optimizers2026년 1월 4일댓글 수 로딩 중
[논문리뷰] Fast-weight Product Key MemoryarXiv에 게시된 'Fast-weight Product Key Memory' 논문에 대한 자세한 리뷰입니다.#Review#Fast-weight Memory#Product Key Memory#Episodic Memory#Language Models#Long-Context Modeling#Memory Augmented Networks#Continual Learning2026년 1월 4일댓글 수 로딩 중
[논문리뷰] End-to-End Test-Time Training for Long ContextMarcel Rød이 arXiv에 게시한 'End-to-End Test-Time Training for Long Context' 논문에 대한 자세한 리뷰입니다.#Review#Long-Context Language Modeling#Test-Time Training (TTT)#Meta-Learning#Continual Learning#Transformer#Sliding-Window Attention#Inference Efficiency#MLP Adaptation2025년 12월 30일댓글 수 로딩 중
[논문리뷰] Memory in the Age of AI AgentsYanwei Yue이 arXiv에 게시한 'Memory in the Age of AI Agents' 논문에 대한 자세한 리뷰입니다.#Review#AI Agents#Memory Systems#LLMs#Taxonomy#Continual Learning#Self-Evolution#Multimodality#Reinforcement Learning2025년 12월 15일댓글 수 로딩 중
[논문리뷰] Experience-Guided Adaptation of Inference-Time Reasoning StrategiesarXiv에 게시된 'Experience-Guided Adaptation of Inference-Time Reasoning Strategies' 논문에 대한 자세한 리뷰입니다.#Review#Adaptive AI#Inference-Time Adaptation#Reasoning Strategies#Meta-Learning#LLM-based Agents#Dynamic Strategy Generation#Continual Learning#Computational Efficiency2025년 11월 16일댓글 수 로딩 중
[논문리뷰] Taming Modality Entanglement in Continual Audio-Visual SegmentationZhaojin Fu이 arXiv에 게시한 'Taming Modality Entanglement in Continual Audio-Visual Segmentation' 논문에 대한 자세한 리뷰입니다.#Review#Continual Learning#Audio-Visual Segmentation#Modality Entanglement#Semantic Drift#Co-occurrence Confusion#Rehearsal Strategy#Sample Selection2025년 10월 27일댓글 수 로딩 중
[논문리뷰] RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model MergingarXiv에 게시된 'RECALL: REpresentation-aligned Catastrophic-forgetting ALLeviation via Hierarchical Model Merging' 논문에 대한 자세한 리뷰입니다.#Review#Catastrophic Forgetting#Continual Learning#Model Merging#LLMs#Representation Learning#Data-free Learning#Hierarchical Parameter Fusion2025년 10월 27일댓글 수 로딩 중
[논문리뷰] KORE: Enhancing Knowledge Injection for Large Multimodal Models via Knowledge-Oriented Augmentations and ConstraintsJinhe Bi이 arXiv에 게시한 'KORE: Enhancing Knowledge Injection for Large Multimodal Models via Knowledge-Oriented Augmentations and Constraints' 논문에 대한 자세한 리뷰입니다.#Review#Knowledge Injection#Large Multimodal Models#Catastrophic Forgetting#Data Augmentation#Parameter-Efficient Fine-Tuning#Null Space#Continual Learning2025년 10월 23일댓글 수 로딩 중
[논문리뷰] AlphaOPT: Formulating Optimization Programs with Self-Improving LLM Experience LibraryChonghe Jiang이 arXiv에 게시한 'AlphaOPT: Formulating Optimization Programs with Self-Improving LLM Experience Library' 논문에 대한 자세한 리뷰입니다.#Review#Optimization Modeling#Large Language Models (LLMs)#Experience Library#Self-Improving Systems#Continual Learning#Out-of-Distribution Generalization#Operations Research#Knowledge Representation2025년 10월 23일댓글 수 로딩 중
[논문리뷰] Learning on the Job: Test-Time Curricula for Targeted Reinforcement LearningarXiv에 게시된 'Learning on the Job: Test-Time Curricula for Targeted Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Test-Time Curriculum#Reinforcement Learning#Large Language Models#Self-Curated Learning#Continual Learning#Reasoning Benchmarks#Adaptive Training2025년 10월 7일댓글 수 로딩 중
[논문리뷰] REPAIR: Robust Editing via Progressive Adaptive Intervention and ReintegrationarXiv에 게시된 'REPAIR: Robust Editing via Progressive Adaptive Intervention and Reintegration' 논문에 대한 자세한 리뷰입니다.#Review#Model Editing#Lifelong Learning#LLMs#Continual Learning#Knowledge Distillation#Error Feedback#Memory Management#Parameter Merging2025년 10월 6일댓글 수 로딩 중
[논문리뷰] R^textbf{2AI}: Towards Resistant and Resilient AI in an Evolving WorldBowen Zhou이 arXiv에 게시한 'R^textbf{2AI}: Towards Resistant and Resilient AI in an Evolving World' 논문에 대한 자세한 리뷰입니다.#Review#AI Safety#Resistant AI#Resilient AI#Coevolution#Fast-Slow Models#Adversarial Training#Continual Learning#AGI Alignment2025년 9월 9일댓글 수 로딩 중
[논문리뷰] GeRe: Towards Efficient Anti-Forgetting in Continual Learning of LLM via General Samples ReplayYang Fan이 arXiv에 게시한 'GeRe: Towards Efficient Anti-Forgetting in Continual Learning of LLM via General Samples Replay' 논문에 대한 자세한 리뷰입니다.#Review#Continual Learning#Large Language Models (LLMs)#Catastrophic Forgetting#Replay#Knowledge Distillation#Activation States#Anti-forgetting#Threshold-based Margin Loss2025년 8월 13일댓글 수 로딩 중
[논문리뷰] C3D-AD: Toward Continual 3D Anomaly Detection via Kernel Attention with Learnable AdvisorJinbao Wang이 arXiv에 게시한 'C3D-AD: Toward Continual 3D Anomaly Detection via Kernel Attention with Learnable Advisor' 논문에 대한 자세한 리뷰입니다.#Review#3D Anomaly Detection#Continual Learning#Kernel Attention#Learnable Advisor#Parameter Perturbation#Point Cloud#Industrial AI2025년 8월 7일댓글 수 로딩 중