[논문리뷰] Can LLMs Estimate Student Struggles? Human-AI Difficulty Alignment with Proficiency Simulation for Item Difficulty PredictionHong Jiao이 arXiv에 게시한 'Can LLMs Estimate Student Struggles? Human-AI Difficulty Alignment with Proficiency Simulation for Item Difficulty Prediction' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Item Difficulty Prediction#Human-AI Alignment#Proficiency Simulation#Metacognition#Curse of Knowledge#Educational Assessment#Zero-shot Learning2025년 12월 22일댓글 수 로딩 중
[논문리뷰] Utility-Learning Tension in Self-Modifying AgentsPeter Jin이 arXiv에 게시한 'Utility-Learning Tension in Self-Modifying Agents' 논문에 대한 자세한 리뷰입니다.#Review#Self-Modifying Agents#PAC Learnability#VC Dimension#Capacity Bounds#Metacognition#Architectural Search#Algorithmic Stability#Generalization Theory2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Behavioral Fingerprinting of Large Language ModelsXing Li이 arXiv에 게시한 'Behavioral Fingerprinting of Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Behavioral Evaluation#Model Alignment#Sycophancy#World Model Brittleness#Metacognition#Personality Profiling2025년 9월 8일댓글 수 로딩 중