[논문리뷰] Artificial Hippocampus Networks for Efficient Long-Context ModelingarXiv에 게시된 'Artificial Hippocampus Networks for Efficient Long-Context Modeling' 논문에 대한 자세한 리뷰입니다.#Review#Long-Context Modeling#Transformer#RNN#Memory Management#Self-Distillation#Attention Mechanism#Artificial Hippocampus Networks#Cognitive Science2025년 10월 9일댓글 수 로딩 중
[논문리뷰] StateX: Enhancing RNN Recall via Post-training State ExpansionZhiyuan Liu이 arXiv에 게시한 'StateX: Enhancing RNN Recall via Post-training State Expansion' 논문에 대한 자세한 리뷰입니다.#Review#RNN#State Expansion#Post-training#Long-context Recall#Linear Attention#State Space Models#GLA#Mamba22025년 9월 29일댓글 수 로딩 중