[논문리뷰] SE-DiCoW: Self-Enrolled Diarization-Conditioned WhisperarXiv에 게시된 'SE-DiCoW: Self-Enrolled Diarization-Conditioned Whisper' 논문에 대한 자세한 리뷰입니다.#Review#Target-Speaker ASR#DiCoW#Whisper Model#Multi-speaker ASR#Self-enrollment#Cross-attention#Speech Diarization2026년 1월 28일댓글 수 로딩 중
[논문리뷰] Cross-Attention is Half Explanation in Speech-to-Text ModelsLuisa Bentivogli이 arXiv에 게시한 'Cross-Attention is Half Explanation in Speech-to-Text Models' 논문에 대한 자세한 리뷰입니다.#Review#Cross-attention#Speech-to-Text (S2T)#Explainable AI (XAI)#Saliency Maps#Feature Attribution#Transformer#Context Mixing#Correlation2025년 9월 23일댓글 수 로딩 중