[SGLang] Activation Functions: SiLU, GELU 커스텀 구현SGLang의 활성화 함수 구현을 분석한다. SiLU, GELU, SiLU-and-Mul 등 Fused 활성화 함수의 커스텀 구현, PyTorch 기본 대비 성능 향상을 코드와 함께 살펴본다.#sglang#Activation#SiLU#GELU#Fused Operations2026년 4월 14일댓글 수 로딩 중