[논문리뷰] QuCo-RAG: Quantifying Uncertainty from the Pre-training Corpus for Dynamic Retrieval-Augmented GenerationLu Cheng이 arXiv에 게시한 'QuCo-RAG: Quantifying Uncertainty from the Pre-training Corpus for Dynamic Retrieval-Augmented Generation' 논문에 대한 자세한 리뷰입니다.#Review#Dynamic RAG#Hallucination Detection#Corpus Statistics#Uncertainty Quantification#Pre-training Data#LLM Calibration#Infini-gram#Multi-hop QA2025년 12월 22일댓글 수 로딩 중
[논문리뷰] AlignBench: Benchmarking Fine-Grained Image-Text Alignment with Synthetic Image-Caption PairsTosho Hirasawa이 arXiv에 게시한 'AlignBench: Benchmarking Fine-Grained Image-Text Alignment with Synthetic Image-Caption Pairs' 논문에 대한 자세한 리뷰입니다.#Review#Image-Text Alignment#Multimodal Benchmarking#Hallucination Detection#Vision-Language Models#Synthetic Data Generation#Fine-Grained Analysis#Captioning2025년 12월 3일댓글 수 로딩 중
[논문리뷰] HaluMem: Evaluating Hallucinations in Memory Systems of AgentsarXiv에 게시된 'HaluMem: Evaluating Hallucinations in Memory Systems of Agents' 논문에 대한 자세한 리뷰입니다.#Review#Memory Systems#AI Agents#Hallucination Detection#Evaluation Benchmark#Long-term Memory#Memory Extraction#Memory Updating#Question Answering2025년 11월 10일댓글 수 로딩 중
[논문리뷰] Multi-Step Knowledge Interaction Analysis via Rank-2 Subspace DisentanglementIsabelle Augenstein이 arXiv에 게시한 'Multi-Step Knowledge Interaction Analysis via Rank-2 Subspace Disentanglement' 논문에 대한 자세한 리뷰입니다.#Review#LLMs#Knowledge Interaction#Parametric Knowledge#Contextual Knowledge#Subspace Disentanglement#NLE Generation#Hallucination Detection#Chain-of-Thought2025년 11월 9일댓글 수 로딩 중
[논문리뷰] When Models Lie, We Learn: Multilingual Span-Level Hallucination Detection with PsiloQAArtem Vazhentsev이 arXiv에 게시한 'When Models Lie, We Learn: Multilingual Span-Level Hallucination Detection with PsiloQA' 논문에 대한 자세한 리뷰입니다.#Review#Hallucination Detection#Multilingual LLMs#Span-Level Annotation#Synthetic Data Generation#Question Answering (QA)#Encoder Models#Uncertainty Quantification#GPT-4o2025년 10월 17일댓글 수 로딩 중
[논문리뷰] Large Language Models Do NOT Really Know What They Don't KnowarXiv에 게시된 'Large Language Models Do NOT Really Know What They Don't Know' 논문에 대한 자세한 리뷰입니다.#Review#LLMs#Hallucination Detection#Mechanistic Interpretability#Internal States#Knowledge Recall#Refusal Tuning#Factual Associations#Associated Hallucinations2025년 10월 17일댓글 수 로딩 중
[논문리뷰] HalluGuard: Evidence-Grounded Small Reasoning Models to Mitigate Hallucinations in Retrieval-Augmented GenerationRadu State이 arXiv에 게시한 'HalluGuard: Evidence-Grounded Small Reasoning Models to Mitigate Hallucinations in Retrieval-Augmented Generation' 논문에 대한 자세한 리뷰입니다.#Review#Hallucination Detection#Retrieval-Augmented Generation (RAG)#Small Reasoning Model (SRM)#Preference Fine-tuning#ORPO#Evidence Grounding#Fact-checking2025년 10월 8일댓글 수 로딩 중
[논문리뷰] Turk-LettuceDetect: A Hallucination Detection Models for Turkish RAG ApplicationsFatma Betül Terzioğlu이 arXiv에 게시한 'Turk-LettuceDetect: A Hallucination Detection Models for Turkish RAG Applications' 논문에 대한 자세한 리뷰입니다.#Review#Hallucination Detection#Retrieval Augmented Generation#Large Language Models#Turkish NLP#Token Classification#ModernBERT#Low-Resource Languages2025년 9월 23일댓글 수 로딩 중
[논문리뷰] CompassVerifier: A Unified and Robust Verifier for LLMs Evaluation and Outcome RewardSongyang Gao이 arXiv에 게시한 'CompassVerifier: A Unified and Robust Verifier for LLMs Evaluation and Outcome Reward' 논문에 대한 자세한 리뷰입니다.#Review#LLM Evaluation#Answer Verification#Reward Model#Benchmarking#Data Augmentation#Reinforcement Learning#Formula Verification#Hallucination Detection2025년 8월 6일댓글 수 로딩 중