본문으로 건너뛰기

[faster-qwen3-tts] Windows 네이티브 셋업 및 벤치마크 스크립트 추가

PR 링크: andimarafioti/faster-qwen3-tts#29 상태: Merged | 변경: +241 / -1

들어가며

faster-qwen3-tts의 기존 셋업은 setup.shbenchmark.sh로 Unix 전용이었다. Windows 사용자는 WSL을 통해서만 실행할 수 있어 접근성이 제한적이었다. 이 PR은 네이티브 Windows batch 스크립트와 가이드 문서를 추가한다.

핵심 코드 분석

setup_windows.bat의 uv 우선 전략

REM uv가 있으면 10배 빠른 설치
where uv >nul 2>&1
if %errorlevel% equ 0 (
    set "HAS_UV=1"
    echo Found uv, using it for faster setup.
) else (
    set "HAS_UV=0"
)

REM uv로 venv 생성 + PyTorch CUDA 설치
if !HAS_UV! equ 1 (
    uv venv .venv --python 3.10
    uv pip install torch torchvision torchaudio ^
        --index-url https://download.pytorch.org/whl/cu124 ^
        --python .venv\Scripts\python.exe
    uv pip install -e . --python .venv\Scripts\python.exe
)

benchmark_windows.bat의 모델 분기

set "MODEL=%~1"
if "%MODEL%"=="" set "MODEL=both"

if /i "%MODEL%"=="custom" (
    call :run_custom 0.6B
    call :run_custom 1.7B
) else if /i "%MODEL%"=="both" (
    call :run_model 0.6B
    call :run_model 1.7B
)

RTX 4060 벤치마크 결과 추가

README에 Windows 환경 결과가 추가되었다:

GPU Baseline RTF CUDA Graphs RTF Speedup
RTX 4060 (Windows) 0.23 2.26 9.8x / 6.5x

왜 이게 좋은가

  1. 접근성 확대: Windows 네이티브 지원으로 WSL 설치 없이 바로 실행 가능하다.
  2. CUDA 버전 명시: --index-url cu124로 PyTorch CUDA 휠을 명시적으로 설치하여 CPU 전용 빌드가 설치되는 실수를 방지한다.
  3. flash-attn optional 처리: Windows에서 flash-attn 빌드가 실패할 수 있어 2>nul로 에러를 무시하고 계속 진행한다.

정리

ML 프로젝트의 Windows 지원은 간과되기 쉽지만, 개발자/데모 사용자 확대에 직접적인 영향을 미친다. uv 감지, CUDA 검증, optional dependency 처리 등 실전에서 자주 발생하는 문제를 잘 다루고 있다.

참고 자료


이 글은 AI(Claude)의 도움을 받아 작성되었습니다. 코드 분석과 해석에서 오류가 있을 수 있으니, 정확한 내용은 원본 PR을 참고해주세요.

댓글

관련 포스트

PR Analysis 의 다른글