[논문리뷰] Trust but Verify: Introducing DAVinCI -- A Framework for Dual Attribution and Verification in Claim Inference for Language ModelsNedim Lipka이 arXiv에 게시한 'Trust but Verify: Introducing DAVinCI -- A Framework for Dual Attribution and Verification in Claim Inference for Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Attribution#Verification#Dual Framework#Hallucination#Confidence Calibration#Natural Language Inference2026년 4월 23일댓글 수 로딩 중
[논문리뷰] Believe Your Model: Distribution-Guided Confidence CalibrationMofei Song이 arXiv에 게시한 'Believe Your Model: Distribution-Guided Confidence Calibration' 논문에 대한 자세한 리뷰입니다.#Review#Confidence Calibration#Test-Time Scaling#Large Reasoning Models (LRMs)#Gaussian Mixture Models (GMM)#Hierarchical Voting#Self-Reflection#Distributional Priors2026년 3월 9일댓글 수 로딩 중
[논문리뷰] Parrot: Persuasion and Agreement Robustness Rating of Output Truth -- A Sycophancy Robustness Benchmark for LLMsarXiv에 게시된 'Parrot: Persuasion and Agreement Robustness Rating of Output Truth -- A Sycophancy Robustness Benchmark for LLMs' 논문에 대한 자세한 리뷰입니다.#Review#LLM Sycophancy#Model Robustness#AI Alignment#Benchmark#Confidence Calibration#Behavioral Taxonomy#Social Influence#Epistemic Collapse2025년 11월 23일댓글 수 로딩 중
[논문리뷰] CritiCal: Can Critique Help LLM Uncertainty or Confidence Calibration?Baixuan Xu이 arXiv에 게시한 'CritiCal: Can Critique Help LLM Uncertainty or Confidence Calibration?' 논문에 대한 자세한 리뷰입니다.#Review#LLM Calibration#Confidence Calibration#Uncertainty Estimation#Critique Learning#Supervised Fine-Tuning#Natural Language Processing#Self-Critique2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Annotation-Efficient Universal Honesty AlignmentJingtong Wu이 arXiv에 게시한 'Annotation-Efficient Universal Honesty Alignment' 논문에 대한 자세한 리뷰입니다.#Review#LLM Honesty Alignment#Confidence Calibration#Annotation Efficiency#Self-Consistency#Elicitation-Then-Calibration (EliCal)#HonestyBench#LoRA#Trustworthy AI2025년 10월 21일댓글 수 로딩 중
[논문리뷰] LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World ScenariosBing Su이 arXiv에 게시한 'LoFT: Parameter-Efficient Fine-Tuning for Long-tailed Semi-Supervised Learning in Open-World Scenarios' 논문에 대한 자세한 리뷰입니다.#Review#Long-tailed Learning#Semi-Supervised Learning#Parameter-Efficient Fine-Tuning#Foundation Models#Open-World Scenarios#OOD Detection#Confidence Calibration2025년 9월 15일댓글 수 로딩 중