[논문리뷰] SWE-Pruner: Self-Adaptive Context Pruning for Coding Agents

수정: 2026년 1월 26일

링크: 논문 PDF로 바로 열기

저자: Yuhang Wang, Yuling Shi, Mo Yang, Rongrui Zhang, Shilin He, Heng Lian, Yuting Chen, Siyu Ye, Kai Cai, Xiaodong Gu

핵심 연구 목표

본 논문은 소프트웨어 개발을 위한 LLM 에이전트가 긴 컨텍스트로 인해 발생하는 높은 API 비용과 지연 시간 문제를 해결하고자 합니다. 기존의 정적이고 태스크 무관한 컨텍스트 압축 방법론이 코드의 문법적/논리적 구조를 손상시키거나 핵심 구현 세부 정보를 놓치는 한계를 극복하고, 태스크 인지적이고 자기 적응적인 컨텍스트 프루닝 프레임워크를 제안하는 것을 목표로 합니다.

핵심 방법론

SWE-Pruner는 코딩 에이전트와 환경 간의 미들웨어로 작동하며, 에이전트가 파일 읽기 명령을 실행할 때 원본 컨텍스트를 가로챕니다. 에이전트는 현재 정보 요구사항을 반영하는 Goal Hint 를 생성하여 프루닝 목표를 안내하며, 0.6B 파라미터의 경량 신경 스키머 는 주어진 목표에 따라 컨텍스트에서 관련 라인을 동적으로 선택합니다. 이 스키머는 Qwen3-Reranker-0.6B 백본을 기반으로 CRF-NLL 손실 함수와 reranking 헤드를 결합한 하이브리드 학습 목표61,184개의 합성 데이터셋 에서 훈련되어 코드 구조를 보존하며 라인 레벨 압축을 수행합니다.

주요 결과

SWE-PrunerSWE-Bench Verified 와 같은 멀티턴 에이전트 태스크에서 23-54%의 토큰 감소 를 달성하면서도 성공률은 1% 미만 으로 유지했습니다. 싱글턴 태스크인 LongCodeQA 에서는 최대 14.84배의 압축률58.71%의 정확도 를 보였으며, 전반적으로 최소한의 성능 저하 만을 기록했습니다. 특히, Claude Sonnet 4.5 모델에서 프롬프트 토큰 38.7% 및 완료 토큰 40.8% 감소 , GLM 4.6 모델에서 총 토큰 43.6% 감소 를 달성했습니다. 또한, SWE-Pruner는 압축 후 87.3%의 AST 정확도 를 유지하여 토큰 레벨 압축 방법들보다 월등히 높은 문법적 유효성을 입증했습니다.

AI 실무자를 위한 시사점

이 연구는 LLM 기반 코딩 에이전트의 운영 효율성을 획기적으로 개선할 수 있는 실용적인 솔루션 을 제공합니다. SWE-Pruner태스크 인지적이고 라인 레벨의 압축 방식은 코드의 문법적/논리적 무결성을 보존하면서 불필요한 컨텍스트를 제거하여 에이전트의 의사결정 품질과 문제 해결 속도를 향상 시킵니다. 경량화된 스키머 는 낮은 지연 시간을 유지하여 실제 서비스 환경에서의 추가적인 오버헤드 없이 도입될 수 있으며, 결과적으로 LLM API 비용을 절감하고 개발 생산성을 높이는 데 기여할 것입니다.

⚠️ 알림: 이 리뷰는 AI로 작성되었습니다.

태그

#Review#Context Pruning#Coding Agents#Large Language Models (LLMs)#Software Development#Code Comprehension#Efficiency Optimization#Task-Aware Pruning#CRF

Review 의 다른글