[논문리뷰] Thinking to Recall: How Reasoning Unlocks Parametric Knowledge in LLMsarXiv에 게시된 'Thinking to Recall: How Reasoning Unlocks Parametric Knowledge in LLMs' 논문에 대한 자세한 리뷰입니다.#Review#LLMs#Reasoning#Parametric Knowledge#Factual Recall#Hallucination#Computational Buffer#Factual Priming#Chain-of-Thought2026년 3월 10일댓글 수 로딩 중
[논문리뷰] Empty Shelves or Lost Keys? Recall Is the Bottleneck for Parametric FactualityarXiv에 게시된 'Empty Shelves or Lost Keys? Recall Is the Bottleneck for Parametric Factuality' 논문에 대한 자세한 리뷰입니다.#Review#LLM Factuality#Knowledge Profiling#Encoding vs. Recall#WikiProfile Benchmark#Inference-time Computation#Reversal Curse#Long-tail Knowledge#Parametric Knowledge2026년 2월 18일댓글 수 로딩 중
[논문리뷰] The FACTS Leaderboard: A Comprehensive Benchmark for Large Language Model FactualityarXiv에 게시된 'The FACTS Leaderboard: A Comprehensive Benchmark for Large Language Model Factuality' 논문에 대한 자세한 리뷰입니다.#Review#LLM Evaluation#Factuality Benchmark#Multimodal AI#Knowledge Grounding#Parametric Knowledge#Retrieval Augmented Generation#Automated Scoring2025년 12월 11일댓글 수 로딩 중
[논문리뷰] Multi-Step Knowledge Interaction Analysis via Rank-2 Subspace DisentanglementIsabelle Augenstein이 arXiv에 게시한 'Multi-Step Knowledge Interaction Analysis via Rank-2 Subspace Disentanglement' 논문에 대한 자세한 리뷰입니다.#Review#LLMs#Knowledge Interaction#Parametric Knowledge#Contextual Knowledge#Subspace Disentanglement#NLE Generation#Hallucination Detection#Chain-of-Thought2025년 11월 9일댓글 수 로딩 중
[논문리뷰] SimpleQA Verified: A Reliable Factuality Benchmark to Measure Parametric KnowledgeDipanjan Das이 arXiv에 게시한 'SimpleQA Verified: A Reliable Factuality Benchmark to Measure Parametric Knowledge' 논문에 대한 자세한 리뷰입니다.#Review#LLM Factuality#Parametric Knowledge#Benchmark#Question Answering#Data Curation#Evaluation Metrics#Hallucination Mitigation#Large Language Models2025년 9월 10일댓글 수 로딩 중