[Axolotl] LoRA 커널에 bias, dropout, DoRA, embedding 지원 추가Axolotl의 Triton LoRA 커널을 확장하여 bias 파라미터, dropout, DoRA(Weight-Decomposed LoRA), embedding 레이어를 지원하도록 개선한 분석.#Axolotl#LoRA#DoRA#Triton#LLM Training#Performance#PEFT2026년 3월 22일댓글 수 로딩 중
[논문리뷰] TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation ModelsarXiv에 게시된 'TabTune: A Unified Library for Inference and Fine-Tuning Tabular Foundation Models' 논문에 대한 자세한 리뷰입니다.#Review#Tabular Foundation Models#Fine-Tuning#PEFT#Meta-Learning#Calibration#Fairness#Unified Library#Benchmarking2025년 11월 9일댓글 수 로딩 중