[논문리뷰] Parallel Latent Reasoning for Sequential Recommendation

수정: 2026년 1월 7일

링크: 논문 PDF로 바로 열기

저자: Jiakai Tang, Xu Chen, Wen Chen, Jian Wu, Yuning Jiang

핵심 연구 목표

순차 추천 시스템에서 희소한 사용자 행동 시퀀스로부터 복잡한 사용자 선호를 포착하는 문제를 해결하는 것이 목표입니다. 기존 잠재 추론(latent reasoning) 방법론들이 깊이 기반(depth-level) 스케일링에만 의존하여 성능 저하 및 오류 누적 문제를 겪는 한계를 극복하고, 여러 추론 경로를 동시에 탐색하는 폭 기반(width-level) 병렬 추론을 통해 일반화 능력과 견고성을 향상시키고자 합니다.

핵심 방법론

본 논문은 Parallel Latent Reasoning (PLR) 프레임워크를 제안합니다. 학습 가능한 트리거 토큰(learnable trigger tokens) 을 도입하여 연속적인 잠재 공간에서 M개의 독립적인 추론 스트림(reasoning streams) 을 구성하고, 글로벌 추론 정규화(global reasoning regularization) 를 통해 스트림 간 다양성을 유지합니다. 또한, 추론 대조 학습(Reasoning Contrastive Learning, RCL) 으로 모델의 견고성을 강화하며, 혼합 추론 스트림 통합 모듈(Mixture-of-Reasoning-Streams, MoRS) 로 다중 스트림 출력을 적응적으로 결합합니다.

주요 결과

PLR 은 세 가지 실제 데이터셋(Amazon Review 2023의 CDs & Vinyl, Movies & TV, Video & Games)에서 최첨단 베이스라인 대비 상당한 성능 향상 을 보였습니다. 특히, CDs & Vinyl 데이터셋의 SASRec 기반에서 Recall@20 지표 12.07%UniSRec 기반에서 Recall@10 지표 14.91% 성능 향상을 달성했습니다. 이러한 성능 향상은 최소한의 추론 오버헤드 ( FLOPs 5.22% 증가, Latency 5.80% 증가 )로 이루어졌으며, 희소한 데이터셋에서 특히 강건함을 입증했습니다.

AI 실무자를 위한 시사점

PLR 은 기존 깊이 스케일링의 한계를 넘어 폭 스케일링을 통해 추천 시스템의 추론 능력을 확장하는 새로운 패러다임을 제시합니다. 낮은 추론 오버헤드 에도 불구하고 실시간 환경에 적합한 성능 향상 을 제공하므로, 대규모 사용자 데이터를 처리하는 실제 서비스에 적용하기에 매우 실용적입니다. 다양한 추론 경로를 탐색하는 접근 방식은 희소한 사용자 행동 패턴에서 더 풍부하고 견고한 사용자 선호도를 포착하는 데 기여합니다.

⚠️ 알림: 이 리뷰는 AI로 작성되었습니다.

태그

#Review#Sequential Recommendation#Latent Reasoning#Parallel Processing#Computational Scaling#Mixture of Experts#Contrastive Learning#Transformer Architecture

Review 의 다른글