[논문리뷰] LoGeR: Long-Context Geometric Reconstruction with Hybrid MemoryarXiv에 게시된 'LoGeR: Long-Context Geometric Reconstruction with Hybrid Memory' 논문에 대한 자세한 리뷰입니다.#Review#3D Reconstruction#Long-Context#Hybrid Memory#Sliding Window Attention (SWA)#Test-Time Training (TTT)#Transformer#Visual SLAM#Sequence Modeling2026년 3월 9일댓글 수 로딩 중
[논문리뷰] tttLRM: Test-Time Training for Long Context and Autoregressive 3D ReconstructionZhiqin Chen이 arXiv에 게시한 'tttLRM: Test-Time Training for Long Context and Autoregressive 3D Reconstruction' 논문에 대한 자세한 리뷰입니다.#Review#3D Reconstruction#Test-Time Training (TTT)#Autoregressive Modeling#Long-Context#Gaussian Splatting#Neural Radiance Fields#Large Reconstruction Models2026년 2월 23일댓글 수 로딩 중
[논문리뷰] End-to-End Test-Time Training for Long ContextMarcel Rød이 arXiv에 게시한 'End-to-End Test-Time Training for Long Context' 논문에 대한 자세한 리뷰입니다.#Review#Long-Context Language Modeling#Test-Time Training (TTT)#Meta-Learning#Continual Learning#Transformer#Sliding-Window Attention#Inference Efficiency#MLP Adaptation2025년 12월 30일댓글 수 로딩 중
[논문리뷰] TTT3R: 3D Reconstruction as Test-Time TrainingAnpei Chen이 arXiv에 게시한 'TTT3R: 3D Reconstruction as Test-Time Training' 논문에 대한 자세한 리뷰입니다.#Review#3D Reconstruction#Test-Time Training (TTT)#Recurrent Neural Networks (RNN)#Online Learning#Length Generalization#Associative Memory#State Update Rule2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Specialization after Generalization: Towards Understanding Test-Time Training in Foundation ModelsarXiv에 게시된 'Specialization after Generalization: Towards Understanding Test-Time Training in Foundation Models' 논문에 대한 자세한 리뷰입니다.#Review#Test-Time Training (TTT)#Foundation Models#Underparameterization#Sparse Autoencoders (SAE)#Linear Representation Hypothesis (LRH)#Specialization#Scaling Laws#In-Distribution Data2025년 10월 1일댓글 수 로딩 중