[논문리뷰] Explainable Disentangled Representation Learning for Generalizable Authorship Attribution in the Era of Generative AI본 논문은 EAVAE라는 2단계 학습 프레임워크를 제안한다. 첫 번째 단계에서는 대규모 authorship 데이터에 대해 supervised contrastive learning을 수행하여 기초적인 저자 스타일 표현을 사전 학습한다.#Review#Authorship Attribution#Disentangled Representation Learning#Variational Autoencoder#Explainable AI#Generative AI#Content-Style Entanglement2026년 4월 23일댓글 수 로딩 중
[논문리뷰] AI Generalisation Gap In Comorbid Sleep Disorder Staging본 연구에서는 SE-ResNet 블록과 Bi-LSTM 레이어를 결합하여 시계열 EEG 데이터의 특징을 추출하고 시간적 의존성을 모델링하는 프레임워크를 제안합니다. 저자들은 새로 구축한 iSLEEPS 데이터셋을 활용하여 기존의 헬스케어 기반 모델들과 성능을 비교하였습니다.#Review#Sleep Staging#Ischemic Stroke#Explainable AI#Grad-CAM#Deep Learning#Clinical Generalization#iSLEEPS2026년 4월 1일댓글 수 로딩 중
[논문리뷰] ImagenWorld: Stress-Testing Image Generation Models with Explainable Human Evaluation on Open-ended Real-World TasksarXiv에 게시된 'ImagenWorld: Stress-Testing Image Generation Models with Explainable Human Evaluation on Open-ended Real-World Tasks' 논문에 대한 자세한 리뷰입니다.#Review#Image Generation#Image Editing#Benchmark#Human Evaluation#Explainable AI#Multimodal Learning2026년 3월 30일댓글 수 로딩 중
[논문리뷰] Beyond Memorization: A Multi-Modal Ordinal Regression Benchmark to Expose Popularity Bias in Vision-Language ModelsYu-Lun Liu이 arXiv에 게시한 'Beyond Memorization: A Multi-Modal Ordinal Regression Benchmark to Expose Popularity Bias in Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language Models (VLMs)#Popularity Bias#Ordinal Regression#Building Age Estimation#Multi-modal Learning#Benchmark Dataset#Explainable AI2025년 12월 24일댓글 수 로딩 중
[논문리뷰] FaithLens: Detecting and Explaining Faithfulness HallucinationarXiv에 게시된 'FaithLens: Detecting and Explaining Faithfulness Hallucination' 논문에 대한 자세한 리뷰입니다.#Review#LLM Hallucination Detection#Explainable AI#Faithfulness Evaluation#Data Augmentation#Reinforcement Learning#Fact-Checking2025년 12월 23일댓글 수 로딩 중
[논문리뷰] Skyra: AI-Generated Video Detection via Grounded Artifact ReasoningarXiv에 게시된 'Skyra: AI-Generated Video Detection via Grounded Artifact Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#AI-Generated Video Detection#Multimodal Large Language Model (MLLM)#Artifact Reasoning#Explainable AI#Supervised Fine-Tuning (SFT)#Reinforcement Learning (RL)#Video Forensics2025년 12월 17일댓글 수 로딩 중
[논문리뷰] ReVSeg: Incentivizing the Reasoning Chain for Video Segmentation with Reinforcement LearningShengju Qian이 arXiv에 게시한 'ReVSeg: Incentivizing the Reasoning Chain for Video Segmentation with Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Video Object Segmentation#Reinforcement Learning#Vision-Language Models#Reasoning Chain#Explainable AI#Multi-step Reasoning2025년 12월 7일댓글 수 로딩 중
[논문리뷰] OralGPT-Omni: A Versatile Dental Multimodal Large Language ModelarXiv에 게시된 'OralGPT-Omni: A Versatile Dental Multimodal Large Language Model' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Large Language Model (MLLM)#Dental Imaging Analysis#Chain-of-Thought (CoT) Reasoning#Medical AI#Benchmark#Diagnosis#Oral Healthcare#Explainable AI2025년 11월 30일댓글 수 로딩 중
[논문리뷰] Memory-based Language Models: An Efficient, Explainable, and Eco-friendly Approach to Large Language ModelingarXiv에 게시된 'Memory-based Language Models: An Efficient, Explainable, and Eco-friendly Approach to Large Language Modeling' 논문에 대한 자세한 리뷰입니다.#Review#Memory-based Language Model#k-Nearest Neighbor#Eco-friendly AI#Explainable AI#Next-token Prediction#Prefix Trie#Low-latency Inference#CPU-based AI2025년 10월 28일댓글 수 로딩 중
[논문리뷰] From What to Why: A Multi-Agent System for Evidence-based Chemical Reaction Condition ReasoningFeiwei Qin이 arXiv에 게시한 'From What to Why: A Multi-Agent System for Evidence-based Chemical Reaction Condition Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent System#Chemical Reaction Prediction#Explainable AI#Evidence-Based Reasoning#Large Language Models#Tool-Augmented LLMs#Scientific Discovery2025년 10월 10일댓글 수 로딩 중
[논문리뷰] X-CoT: Explainable Text-to-Video Retrieval via LLM-based Chain-of-Thought ReasoningRaghuveer Rao이 arXiv에 게시한 'X-CoT: Explainable Text-to-Video Retrieval via LLM-based Chain-of-Thought Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Video Retrieval#LLM#Chain-of-Thought#Explainable AI#Multimodal Retrieval#Bradley-Terry Model#Video Annotation2025년 9월 29일댓글 수 로딩 중
[논문리뷰] Think in Games: Learning to Reason in Games via Reinforcement Learning with Large Language ModelsYifan Lu이 arXiv에 게시한 'Think in Games: Learning to Reason in Games via Reinforcement Learning with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reinforcement Learning#Game AI#Procedural Knowledge#Declarative Knowledge#Explainable AI#Strategic Decision-Making2025년 9월 1일댓글 수 로딩 중
[논문리뷰] X-Node: Self-Explanation is All We NeedIslem Rekik이 arXiv에 게시한 'X-Node: Self-Explanation is All We Need' 논문에 대한 자세한 리뷰입니다.#Review#Graph Neural Networks#Explainable AI#Self-Explanation#Node Classification#Medical Imaging#Natural Language Processing#Interpretability2025년 8월 18일댓글 수 로딩 중
[논문리뷰] From Black Box to Transparency: Enhancing Automated Interpreting Assessment with Explainable AI in College ClassroomsZiyin Zhang이 arXiv에 게시한 'From Black Box to Transparency: Enhancing Automated Interpreting Assessment with Explainable AI in College Classrooms' 논문에 대한 자세한 리뷰입니다.#Review#Automated Interpreting Assessment#Explainable AI#Data Augmentation#Variational Autoencoder#SHAP#Interpreting Quality#Natural Language Processing2025년 8월 15일댓글 수 로딩 중
[논문리뷰] Mol-R1: Towards Explicit Long-CoT Reasoning in Molecule DiscoveryDi Zhang이 arXiv에 게시한 'Mol-R1: Towards Explicit Long-CoT Reasoning in Molecule Discovery' 논문에 대한 자세한 리뷰입니다.#Review#Molecule Discovery#Chain-of-Thought#Large Language Models#Reinforcement Learning#Supervised Fine-tuning#Molecular Generation#Explainable AI2025년 8월 14일댓글 수 로딩 중
[논문리뷰] MolmoAct: Action Reasoning Models that can Reason in SpaceShuo Liu이 arXiv에 게시한 'MolmoAct: Action Reasoning Models that can Reason in Space' 논문에 대한 자세한 리뷰입니다.#Review#Robotics#Action Reasoning#Vision-Language Models#Spatial Planning#Depth Perception#Trajectory Generation#Explainable AI2025년 8월 12일댓글 수 로딩 중
[논문리뷰] The Cow of Rembrandt - Analyzing Artistic Prompt Interpretation in Text-to-Image ModelsElisabetta Rocchetti이 arXiv에 게시한 'The Cow of Rembrandt - Analyzing Artistic Prompt Interpretation in Text-to-Image Models' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Image Generation#Diffusion Models#Cross-Attention Analysis#Content-Style Disentanglement#Artistic Style Transfer#Explainable AI#SDXL2025년 8월 7일댓글 수 로딩 중
[논문리뷰] TRACEALIGN -- Tracing the Drift: Attributing Alignment Failures to Training-Time Belief Sources in LLMsAman Chadha이 arXiv에 게시한 'TRACEALIGN -- Tracing the Drift: Attributing Alignment Failures to Training-Time Belief Sources in LLMs' 논문에 대한 자세한 리뷰입니다.#Review#LLM Alignment#Alignment Drift#Training Data Provenance#Belief Conflict Index (BCI)#Suffix Array#Safety Interventions#Reinforcement Learning from Human Feedback#Explainable AI2025년 8월 6일댓글 수 로딩 중