[pytorch] CI: vLLM 테스트/벤치마크 워크플로우를 CUDA 13.0으로 전환
PR 링크: pytorch/pytorch#175781 상태: Merged | 변경: +15 / -16
들어가며
vLLM은 PyTorch 기반의 대표적인 LLM 추론 엔진으로, PyTorch CI에서 통합 테스트가 실행됩니다. 이 PR은 vLLM 관련 워크플로우를 CUDA 12.9에서 13.0으로 전환하면서, NVIDIA Blackwell 아키텍처(sm_120, compute capability 12.0) 지원을 CUDA arch list에 추가한 작업입니다.
핵심 코드 분석
1. Docker 이미지 및 빌드 환경 전환
Before:
build-environment: linux-jammy-cuda12.9-py3.12-gcc11
docker-image-name: ci-image:pytorch-linux-jammy-cuda12.9-cudnn9-py3.12-gcc11-vllm
cuda-arch-list: '8.0 8.9 9.0 10.0'
After:
build-environment: linux-jammy-cuda13.0-py3.12-gcc11
docker-image-name: ci-image:pytorch-linux-jammy-cuda13.0-cudnn9-py3.12-gcc11-vllm
cuda-arch-list: '8.0 8.9 9.0 10.0 12.0'
12.0(Blackwell)이 arch list에 추가된 것이 주목할 점입니다. CUDA 13.0이 Blackwell을 공식 지원하므로, 해당 아키텍처에 대한 컴파일이 가능해졌습니다.
2. pip index URL 업데이트
vLLM 벤치마크 빌드 시 의존성 설치에 사용하는 PyTorch wheel index가 업데이트되었습니다.
Before:
--extra-index-url https://download.pytorch.org/whl/cu129
After:
--extra-index-url https://download.pytorch.org/whl/cu130
3. 버그 수정: causal-conv1d 버전 업데이트
vLLM 테스트 라이브러리 설정에서 typo 수정과 함께 의존성 버전이 업데이트되었습니다.
Before:
id: vllm_languagde_model_test_extended_generation_28_failure_test
package_install:
- git+https://github.com/Dao-AILab/causal-conv1d@v1.5.0.post8
After:
id: vllm_language_model_test_extended_generation_28_failure_test
package_install:
- git+https://github.com/Dao-AILab/causal-conv1d@v1.6.0
languagde -> language typo 수정과 함께 causal-conv1d가 v1.5.0.post8에서 v1.6.0으로 업그레이드되었습니다.
왜 이게 좋은가
CUDA 13.0은 Blackwell 아키텍처의 공식 지원을 포함하며, vLLM처럼 최신 GPU에서 실행되는 추론 엔진에는 필수적인 업그레이드입니다. cuda-arch-list에 12.0을 추가함으로써 Blackwell GPU에서의 빌드 및 테스트가 CI 파이프라인에 포함됩니다. 이는 Blackwell 기반 환경에서 발생할 수 있는 호환성 문제를 조기에 발견할 수 있게 합니다.
정리
- vLLM CI 워크플로우 4개 파일에서 CUDA 12.9 -> 13.0 전환
- Blackwell GPU(sm_120) 컴파일 타겟 추가
- causal-conv1d v1.6.0 업그레이드 및 typo 수정
참고 자료
⚠️ 알림: 이 분석은 AI가 실제 코드 diff를 기반으로 작성했습니다.
관련 포스트
PR Analysis 의 다른글
- 이전글 [Open WebUI] get_tools()에서 빈 tool_ids 조기 반환 최적화
- 현재글 : [pytorch] CI: vLLM 테스트/벤치마크 워크플로우를 CUDA 13.0으로 전환
- 다음글 [Loki] TSDB 풀에 전체 슬라이스를 올바르게 반환하여 메모리 할당 99.6% 감소
댓글