[faster-qwen3-tts] Windows 네이티브 셋업 및 벤치마크 스크립트 추가
PR 링크: andimarafioti/faster-qwen3-tts#29 상태: Merged | 변경: +241 / -1
들어가며
faster-qwen3-tts의 기존 셋업은 setup.sh와 benchmark.sh로 Unix 전용이었다. Windows 사용자는 WSL을 통해서만 실행할 수 있어 접근성이 제한적이었다. 이 PR은 네이티브 Windows batch 스크립트와 가이드 문서를 추가한다.
핵심 코드 분석
setup_windows.bat의 uv 우선 전략
REM uv가 있으면 10배 빠른 설치
where uv >nul 2>&1
if %errorlevel% equ 0 (
set "HAS_UV=1"
echo Found uv, using it for faster setup.
) else (
set "HAS_UV=0"
)
REM uv로 venv 생성 + PyTorch CUDA 설치
if !HAS_UV! equ 1 (
uv venv .venv --python 3.10
uv pip install torch torchvision torchaudio ^
--index-url https://download.pytorch.org/whl/cu124 ^
--python .venv\Scripts\python.exe
uv pip install -e . --python .venv\Scripts\python.exe
)
benchmark_windows.bat의 모델 분기
set "MODEL=%~1"
if "%MODEL%"=="" set "MODEL=both"
if /i "%MODEL%"=="custom" (
call :run_custom 0.6B
call :run_custom 1.7B
) else if /i "%MODEL%"=="both" (
call :run_model 0.6B
call :run_model 1.7B
)
RTX 4060 벤치마크 결과 추가
README에 Windows 환경 결과가 추가되었다:
| GPU | Baseline RTF | CUDA Graphs RTF | Speedup |
|---|---|---|---|
| RTX 4060 (Windows) | 0.23 | 2.26 | 9.8x / 6.5x |
왜 이게 좋은가
- 접근성 확대: Windows 네이티브 지원으로 WSL 설치 없이 바로 실행 가능하다.
- CUDA 버전 명시:
--index-url cu124로 PyTorch CUDA 휠을 명시적으로 설치하여 CPU 전용 빌드가 설치되는 실수를 방지한다. - flash-attn optional 처리: Windows에서 flash-attn 빌드가 실패할 수 있어
2>nul로 에러를 무시하고 계속 진행한다.
정리
ML 프로젝트의 Windows 지원은 간과되기 쉽지만, 개발자/데모 사용자 확대에 직접적인 영향을 미친다. uv 감지, CUDA 검증, optional dependency 처리 등 실전에서 자주 발생하는 문제를 잘 다루고 있다.
참고 자료
이 글은 AI(Claude)의 도움을 받아 작성되었습니다. 코드 분석과 해석에서 오류가 있을 수 있으니, 정확한 내용은 원본 PR을 참고해주세요.
관련 포스트
PR Analysis 의 다른글
- 이전글 [Open WebUI] ResponseMessage에서 JSON.stringify 비교를 O(1) fast-path로 우회
- 현재글 : [faster-qwen3-tts] Windows 네이티브 셋업 및 벤치마크 스크립트 추가
- 다음글 [Open WebUI] KaTeX 모듈 import를 싱글턴으로 캐싱하여 렌더링 최적화
댓글