[논문리뷰] AudioSAE: Towards Understanding of Audio-Processing Models with Sparse AutoEncodersarXiv에 게시된 'AudioSAE: Towards Understanding of Audio-Processing Models with Sparse AutoEncoders' 논문에 대한 자세한 리뷰입니다.#Review#Sparse Autoencoders (SAEs)#Audio Representation Learning#Model Interpretability#Whisper#HuBERT#Feature Steering#EEG Correlation#Audio Analysis2026년 2월 8일댓글 수 로딩 중
[논문리뷰] No Global Plan in Chain-of-Thought: Uncover the Latent Planning Horizon of LLMsarXiv에 게시된 'No Global Plan in Chain-of-Thought: Uncover the Latent Planning Horizon of LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Chain-of-Thought#LLM Planning#Probing Methods#Uncertainty Estimation#Reasoning Dynamics#Model Interpretability2026년 2월 3일댓글 수 로딩 중
[논문리뷰] VL-SAE: Interpreting and Enhancing Vision-Language Alignment with a Unified Concept SetarXiv에 게시된 'VL-SAE: Interpreting and Enhancing Vision-Language Alignment with a Unified Concept Set' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models (VLMs)#Model Interpretability#Sparse Autoencoder (SAE)#Multi-modal Alignment#Concept Learning#Hallucination Elimination#Zero-shot Classification2025년 10월 29일댓글 수 로딩 중
[논문리뷰] Map the Flow: Revealing Hidden Pathways of Information in VideoLLMsBohyung Han이 arXiv에 게시한 'Map the Flow: Revealing Hidden Pathways of Information in VideoLLMs' 논문에 대한 자세한 리뷰입니다.#Review#Video Large Language Models#VideoQA#Mechanistic Interpretability#Attention Knockout#Temporal Reasoning#Information Flow#Model Interpretability#Logit Lens2025년 10월 27일댓글 수 로딩 중
[논문리뷰] Hierarchical Frequency Tagging Probe (HFTP): A Unified Approach to Investigate Syntactic Structure Representations in Large Language Models and the Human BrainLingxi Lu이 arXiv에 게시한 'Hierarchical Frequency Tagging Probe (HFTP): A Unified Approach to Investigate Syntactic Structure Representations in Large Language Models and the Human Brain' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Syntactic Structure#Human Brain#Frequency Tagging#Neuroscience#Model Interpretability#Representational Similarity Analysis#Intracranial EEG2025년 10월 16일댓글 수 로딩 중
[논문리뷰] The Dragon Hatchling: The Missing Link between the Transformer and Models of the BrainarXiv에 게시된 'The Dragon Hatchling: The Missing Link between the Transformer and Models of the Brain' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Brain-Inspired AI#Graph Neural Networks#Hebbian Learning#Scale-Free Networks#Model Interpretability#Transformer Architecture2025년 10월 1일댓글 수 로딩 중
[논문리뷰] CRISP: Persistent Concept Unlearning via Sparse AutoencodersYonatan Belinkov이 arXiv에 게시한 'CRISP: Persistent Concept Unlearning via Sparse Autoencoders' 논문에 대한 자세한 리뷰입니다.#Review#Concept Unlearning#Sparse Autoencoders (SAEs)#LLMs#Parameter-Efficient Fine-Tuning#Model Interpretability#Safety-Critical AI#Feature Suppression#WMDP Benchmark2025년 8월 25일댓글 수 로딩 중