본문으로 건너뛰기

[pytorch] CI: vLLM 테스트/벤치마크 워크플로우를 CUDA 13.0으로 전환

PR 링크: pytorch/pytorch#175781 상태: Merged | 변경: +15 / -16

들어가며

vLLM은 PyTorch 기반의 대표적인 LLM 추론 엔진으로, PyTorch CI에서 통합 테스트가 실행됩니다. 이 PR은 vLLM 관련 워크플로우를 CUDA 12.9에서 13.0으로 전환하면서, NVIDIA Blackwell 아키텍처(sm_120, compute capability 12.0) 지원을 CUDA arch list에 추가한 작업입니다.

핵심 코드 분석

1. Docker 이미지 및 빌드 환경 전환

Before:

build-environment: linux-jammy-cuda12.9-py3.12-gcc11
docker-image-name: ci-image:pytorch-linux-jammy-cuda12.9-cudnn9-py3.12-gcc11-vllm
cuda-arch-list: '8.0 8.9 9.0 10.0'

After:

build-environment: linux-jammy-cuda13.0-py3.12-gcc11
docker-image-name: ci-image:pytorch-linux-jammy-cuda13.0-cudnn9-py3.12-gcc11-vllm
cuda-arch-list: '8.0 8.9 9.0 10.0 12.0'

12.0(Blackwell)이 arch list에 추가된 것이 주목할 점입니다. CUDA 13.0이 Blackwell을 공식 지원하므로, 해당 아키텍처에 대한 컴파일이 가능해졌습니다.

2. pip index URL 업데이트

vLLM 벤치마크 빌드 시 의존성 설치에 사용하는 PyTorch wheel index가 업데이트되었습니다.

Before:

--extra-index-url https://download.pytorch.org/whl/cu129

After:

--extra-index-url https://download.pytorch.org/whl/cu130

3. 버그 수정: causal-conv1d 버전 업데이트

vLLM 테스트 라이브러리 설정에서 typo 수정과 함께 의존성 버전이 업데이트되었습니다.

Before:

id: vllm_languagde_model_test_extended_generation_28_failure_test
package_install:
  - git+https://github.com/Dao-AILab/causal-conv1d@v1.5.0.post8

After:

id: vllm_language_model_test_extended_generation_28_failure_test
package_install:
  - git+https://github.com/Dao-AILab/causal-conv1d@v1.6.0

languagde -> language typo 수정과 함께 causal-conv1d가 v1.5.0.post8에서 v1.6.0으로 업그레이드되었습니다.

왜 이게 좋은가

CUDA 13.0은 Blackwell 아키텍처의 공식 지원을 포함하며, vLLM처럼 최신 GPU에서 실행되는 추론 엔진에는 필수적인 업그레이드입니다. cuda-arch-list12.0을 추가함으로써 Blackwell GPU에서의 빌드 및 테스트가 CI 파이프라인에 포함됩니다. 이는 Blackwell 기반 환경에서 발생할 수 있는 호환성 문제를 조기에 발견할 수 있게 합니다.

정리

  • vLLM CI 워크플로우 4개 파일에서 CUDA 12.9 -> 13.0 전환
  • Blackwell GPU(sm_120) 컴파일 타겟 추가
  • causal-conv1d v1.6.0 업그레이드 및 typo 수정

참고 자료

⚠️ 알림: 이 분석은 AI가 실제 코드 diff를 기반으로 작성했습니다.

댓글

관련 포스트

PR Analysis 의 다른글