[논문리뷰] REFLEX: Self-Refining Explainable Fact-Checking via Disentangling Truth into Style and SubstanceYaxin Fan이 arXiv에 게시한 'REFLEX: Self-Refining Explainable Fact-Checking via Disentangling Truth into Style and Substance' 논문에 대한 자세한 리뷰입니다.#Review#Fact-Checking#Explainable AI (XAI)#Large Language Models (LLMs)#Self-Refinement#Latent Space#Disentanglement#Steering Vectors#Misinformation2025년 12월 4일댓글 수 로딩 중
[논문리뷰] FutureX: An Advanced Live Benchmark for LLM Agents in Future Predictiontianlecai이 arXiv에 게시한 'FutureX: An Advanced Live Benchmark for LLM Agents in Future Prediction' 논문에 대한 자세한 리뷰입니다.#Review#LLM Agents#Future Prediction#Live Benchmark#Dynamic Evaluation#Data Contamination#Tool Use#Web Search#Financial Forecasting#Misinformation2025년 8월 21일댓글 수 로딩 중
[논문리뷰] Fact2Fiction: Targeted Poisoning Attack to Agentic Fact-checking SystemReynold Cheng이 arXiv에 게시한 'Fact2Fiction: Targeted Poisoning Attack to Agentic Fact-checking System' 논문에 대한 자세한 리뷰입니다.#Review#Adversarial Attack#Poisoning Attack#Fact-checking#LLM Agent#Retrieval Augmented Generation#Misinformation#System Security2025년 8월 12일댓글 수 로딩 중