[논문리뷰] ThinkTwice: Jointly Optimizing Large Language Models for Reasoning and Self-Refinement본 논문은 Reasoning 최적화와 Self-Refinement 최적화를 하나의 GRPO 프레임워크 안에서 결합한 ThinkTwice를 제안합니다. ThinkTwice는 각 훈련 단계에서 모델이 먼저 Reasoning 문제를 풀고, 동일한 문제에 대해 자신의 이전 답변을 개선하는(Thinking twice) 과정을 연속적으로 수행합니다 .#Review#Large Language Models#Reinforcement Learning#Reasoning#Self-Refinement#RLVR#Policy Optimization#Implicit Curriculum2026년 4월 7일댓글 수 로딩 중
[논문리뷰] Paper Circle: An Open-source Multi-agent Research Discovery and Analysis Framework본 논문은 문헌 탐색부터 분석, 비평까지 연구 전 과정을 지원하는 다중 에이전트 플랫폼인 Paper Circle을 제안한다. 시스템은 Discovery Pipeline과 Analysis Pipeline으로 구성되며, 연구자는 CodeAgent(CoA) 기반의 오케스트레이션 프레임워크를 통해 결정론적이고 추적 가능한 결과를 얻을 수 있다 , .#Review#Multi-agent Systems#Research Discovery#Knowledge Graph#Large Language Models#Academic Literature Review2026년 4월 7일댓글 수 로딩 중
[논문리뷰] MegaTrain: Full Precision Training of 100B+ Parameter Large Language Models on a Single GPUMegaTrain은 파라미터와 옵티마이저 상태를 호스트 메모리에 영구 저장하고, GPU는 레이어별 연산 시에만 파라미터를 스트리밍하는 구조를 채택한다. 저자들은 CPU-GPU 대역폭 병목을 극복하기 위해 Pipelined Double-Buffered Execution Engine을 도입하여 연산과 데이터 이동을 비동기적으로 중첩시켰다 .#Review#Large Language Models#Memory-Centric#CPU-GPU Offloading#Parameter Streaming#Stateless Execution#Pipelined Execution#Single-GPU Training2026년 4월 7일댓글 수 로딩 중
[논문리뷰] MMEmb-R1: Reasoning-Enhanced Multimodal Embedding with Pair-Aware Selection and Adaptive ControlarXiv에 게시된 'MMEmb-R1: Reasoning-Enhanced Multimodal Embedding with Pair-Aware Selection and Adaptive Control' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Embedding#Large Language Models#Chain-of-Thought#Reinforcement Learning#Latent Variable#Causal Inference2026년 4월 7일댓글 수 로딩 중
[논문리뷰] In-Place Test-Time TrainingDi He이 arXiv에 게시한 'In-Place Test-Time Training' 논문에 대한 자세한 리뷰입니다.#Review#In-Place Test-Time Training#Large Language Models#Fast Weights#Next-Token Prediction#Chunk-Wise Update#Continual Learning2026년 4월 7일댓글 수 로딩 중
[논문리뷰] GBQA: A Game Benchmark for Evaluating LLMs as Quality Assurance EngineersZhiyang Chen이 arXiv에 게시한 'GBQA: A Game Benchmark for Evaluating LLMs as Quality Assurance Engineers' 논문에 대한 자세한 리뷰입니다.#Review#Autonomous Bug Discovery#Large Language Models#Game Benchmark#Quality Assurance#Multi-agent System#Software Engineering2026년 4월 7일댓글 수 로딩 중
[논문리뷰] Demystifying When Pruning Works via Representation HierarchiesarXiv에 게시된 'Demystifying When Pruning Works via Representation Hierarchies' 논문에 대한 자세한 리뷰입니다.#Review#Network Pruning#Large Language Models#Representation Hierarchy#Autoregressive Decoding#Softmax Nonlinearity2026년 4월 7일댓글 수 로딩 중
[논문리뷰] Paper Espresso: From Paper Overload to Research InsightarXiv에 게시된 'Paper Espresso: From Paper Overload to Research Insight' 논문에 대한 자세한 리뷰입니다.#Review#Paper Summarization#Trend Analysis#Knowledge Discovery#Large Language Models#Research Tools2026년 4월 6일댓글 수 로딩 중
[논문리뷰] POEMetric: The Last Stanza of HumanityHazel Wilkinson이 arXiv에 게시한 'POEMetric: The Last Stanza of Humanity' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Poetry Evaluation#POEMetric#Creative AI#Literary Criticism#Instruction-following2026년 4월 6일댓글 수 로딩 중
[논문리뷰] LightThinker++: From Reasoning Compression to Memory Management저자들은 암시적 압축에서 시작하여 명시적 행동 수준의 관리로 진화하는 LightThinker 계열 모델을 제안한다. LightThinker는 gist tokens와 특수 설계된 attention mask를 활용하여 긴 사고 과정을 컴팩트한 표현으로 변환한다 .#Review#Large Language Models#Reasoning Compression#Memory Management#Agentic Reasoning#Context Optimization2026년 4월 6일댓글 수 로딩 중
[논문리뷰] Can LLMs Learn to Reason Robustly under Noisy Supervision?Haobo Wang이 arXiv에 게시한 'Can LLMs Learn to Reason Robustly under Noisy Supervision?' 논문에 대한 자세한 리뷰입니다.#Review#RLVR#Noisy Label Learning#Online Label Refinement#Early Correctness Coherence#Large Language Models#Reasoning2026년 4월 6일댓글 수 로딩 중
[논문리뷰] Adam's Law: Textual Frequency Law on Large Language ModelsarXiv에 게시된 'Adam's Law: Textual Frequency Law on Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Textual Frequency Law#Paraphrasing#Curriculum Learning#Frequency Distillation2026년 4월 6일댓글 수 로딩 중
[논문리뷰] Investigating Autonomous Agent Contributions in the Wild: Activity Patterns and Code Change over TimearXiv에 게시된 'Investigating Autonomous Agent Contributions in the Wild: Activity Patterns and Code Change over Time' 논문에 대한 자세한 리뷰입니다.#Review#Autonomous Coding Agents#Large Language Models#Mining Software Repositories#Pull Requests#Code Churn#Empirical Software Engineering#Human-AI Collaboration2026년 4월 2일댓글 수 로딩 중
[논문리뷰] DataFlex: A Unified Framework for Data-Centric Dynamic Training of Large Language Models본 논문은 LLaMA-Factory의 모델 관리 및 최적화 기능을 보존하면서, 데이터 최적화 전략을 모듈형으로 통합한 DataFlex를 제안합니다. DataFlex는 7개의 데이터 선택, 2개의 데이터 혼합, 1개의 재가중치 알고리즘을 통합하여 단일 인터페이스 하에서 연구 및 실행할 수 있도록 설계되었습니다 .#Review#Data-Centric AI#Large Language Models#Dynamic Training#Data Selection#Data Mixture#Data Reweighting#LLaMA-Factory2026년 4월 2일댓글 수 로딩 중
[논문리뷰] Universal YOCO for Efficient Depth ScalingarXiv에 게시된 'Universal YOCO for Efficient Depth Scaling' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Recursive Computation#YOCO#Depth Scaling#Inference Efficiency#KV Cache#Decoder-Decoder Architecture2026년 4월 1일댓글 수 로딩 중
[논문리뷰] Reasoning Shift: How Context Silently Shortens LLM Reasoning본 연구는 모델이 동일한 문제를 Baseline, Subtask, Long input, Multi-turn 등 서로 다른 4가지 Context 조건에서 해결하도록 설계하여 추론 성능과 생성된 토큰 수를 측정했습니다. 실험 결과, 모델은 고립된 환경(Baseline) 대비 다른 조건들에서 최대 50%까지 짧은 추론 트레이스를 생성하는 현상을 보였습니다.#Review#Large Language Models#Chain-of-Thought#Test-time Scaling#Context Management#Reasoning Shift#Self-verification#Overthinking2026년 4월 1일댓글 수 로딩 중
[논문리뷰] MemRerank: Preference Memory for Personalized Product Reranking저자들은 사용자 구매 이력을 within-category와 cross-category 선호도로 구분하여 추출하는 Memory Extractor 모델을 설계하였다. 이 추출기는 재순위화 작업의 성능을 극대화하기 위해 GRPO 기반의 강화학습으로 post-training 되며, 이를 통해 별도의 Gold Label 없이도 재순위화 보상을 직접 최적화한다 .#Review#Recommender Systems#Large Language Models#Product Reranking#Preference Memory#Reinforcement Learning2026년 4월 1일댓글 수 로딩 중
[논문리뷰] Embarrassingly Simple Self-Distillation Improves Code GenerationRonan Collobert이 arXiv에 게시한 'Embarrassingly Simple Self-Distillation Improves Code Generation' 논문에 대한 자세한 리뷰입니다.#Review#Self-Distillation#Code Generation#Large Language Models#Precision-Exploration Conflict#Supervised Fine-Tuning#Temperature Scaling#Truncation2026년 4월 1일댓글 수 로딩 중
[논문리뷰] A Survey of On-Policy Distillation for Large Language ModelsMao Zheng이 arXiv에 게시한 'A Survey of On-Policy Distillation for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#On-Policy Distillation#Large Language Models#Knowledge Distillation#Exposure Bias#f-Divergence#Sequence-Level Learning#Reinforcement Learning2026년 4월 1일댓글 수 로딩 중
[논문리뷰] Think Anywhere in Code GenerationTaozhi Chen이 arXiv에 게시한 'Think Anywhere in Code Generation' 논문에 대한 자세한 리뷰입니다.#Review#Code Generation#Large Language Models#Reasoning#Reinforcement Learning#On-demand Reasoning#Adaptive Computation2026년 3월 31일댓글 수 로딩 중
[논문리뷰] MonitorBench: A Comprehensive Benchmark for Chain-of-Thought Monitorability in Large Language ModelsarXiv에 게시된 'MonitorBench: A Comprehensive Benchmark for Chain-of-Thought Monitorability in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Chain-of-Thought#Monitorability#Benchmark#AI Safety#Stress-Test#Faithfulness2026년 3월 31일댓글 수 로딩 중
[논문리뷰] How Auditory Knowledge in LLM Backbones Shapes Audio Language Models: A Holistic EvaluationarXiv에 게시된 'How Auditory Knowledge in LLM Backbones Shapes Audio Language Models: A Holistic Evaluation' 논문에 대한 자세한 리뷰입니다.#Review#Auditory Knowledge#Large Language Models#Large Audio Language Models#AKB-2000#Cascade Evaluation#Audio-grounded Evaluation2026년 3월 31일댓글 수 로딩 중
[논문리뷰] FIPO: Eliciting Deep Reasoning with Future-KL Influenced Policy OptimizationarXiv에 게시된 'FIPO: Eliciting Deep Reasoning with Future-KL Influenced Policy Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Future-KL#Policy Optimization#GRPO#Chain-of-Thought#Credit Assignment2026년 3월 31일댓글 수 로딩 중
[논문리뷰] Distilling Conversations: Abstract Compression of Conversational Audio Context for LLM-based ASRarXiv에 게시된 'Distilling Conversations: Abstract Compression of Conversational Audio Context for LLM-based ASR' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal ASR#Large Language Models#Conversational Context#Abstract Compression#Contextual Biasing#Latent Bottleneck2026년 3월 31일댓글 수 로딩 중
[논문리뷰] Kernel-Smith: A Unified Recipe for Evolutionary Kernel OptimizationarXiv에 게시된 'Kernel-Smith: A Unified Recipe for Evolutionary Kernel Optimization' 논문에 대한 자세한 리뷰입니다.#Review#GPU Kernel Optimization#Large Language Models#Evolutionary Algorithms#Reinforcement Learning#Triton#MetaX MACA#System Optimization2026년 3월 30일댓글 수 로딩 중
[논문리뷰] Density-aware Soft Context Compression with Semi-Dynamic Compression RatioJi Pei이 arXiv에 게시한 'Density-aware Soft Context Compression with Semi-Dynamic Compression Ratio' 논문에 대한 자세한 리뷰입니다.#Review#Soft Context Compression#Large Language Models#Density-aware#Discrete Ratio Selector#Supervised Fine-Tuning#Mean-Pooling2026년 3월 30일댓글 수 로딩 중
[논문리뷰] When Models Judge Themselves: Unsupervised Self-Evolution for Multimodal ReasoningarXiv에 게시된 'When Models Judge Themselves: Unsupervised Self-Evolution for Multimodal Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Unsupervised Self-Evolution#Multimodal Reasoning#Consistency-Based Reward#Judge Modulation#Group Relative Policy Optimization (GRPO)#Policy Updates#Mathematical Reasoning#Large Language Models2026년 3월 25일댓글 수 로딩 중
[논문리뷰] RAMP: Reinforcement Adaptive Mixed Precision Quantization for Efficient On Device LLM InferenceSaurabh Jha이 arXiv에 게시한 'RAMP: Reinforcement Adaptive Mixed Precision Quantization for Efficient On Device LLM Inference' 논문에 대한 자세한 리뷰입니다.#Review#Mixed-Precision Quantization#Reinforcement Learning#Post-Training Quantization#Large Language Models#Policy Transfer#Scale Folding#GGUF#On-Device Inference2026년 3월 18일댓글 수 로딩 중
[논문리뷰] Efficient Exploration at ScalearXiv에 게시된 'Efficient Exploration at Scale' 논문에 대한 자세한 리뷰입니다.#Review#RLHF#Data Efficiency#Active Exploration#Epistemic Neural Network#Information-Directed Sampling#Scaling Laws#Large Language Models#Online Learning2026년 3월 18일댓글 수 로딩 중
[논문리뷰] BenchPreS: A Benchmark for Context-Aware Personalized Preference Selectivity of Persistent-Memory LLMsarXiv에 게시된 'BenchPreS: A Benchmark for Context-Aware Personalized Preference Selectivity of Persistent-Memory LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Personalization#Persistent Memory#Context-Awareness#Preference Selectivity#Benchmark#Misapplication Rate#Appropriate Application Rate2026년 3월 18일댓글 수 로딩 중
[논문리뷰] daVinci-Env: Open SWE Environment Synthesis at Scalestargazerzj이 arXiv에 게시한 'daVinci-Env: Open SWE Environment Synthesis at Scale' 논문에 대한 자세한 리뷰입니다.#Review#SWE Agents#Environment Synthesis#Large Language Models#Dockerfile#SWE-Bench Verified#Data Scaling#Quality Curation2026년 3월 15일댓글 수 로딩 중
[논문리뷰] RetroAgent: From Solving to Evolving via Retrospective Dual Intrinsic FeedbackarXiv에 게시된 'RetroAgent: From Solving to Evolving via Retrospective Dual Intrinsic Feedback' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Self-Reflection#Intrinsic Feedback#Continuous Adaptation#Memory Retrieval#Agentic AI#GRPO2026년 3월 11일댓글 수 로딩 중
[논문리뷰] Prism-Δ: Differential Subspace Steering for Prompt Highlighting in Large Language ModelsarXiv에 게시된 'Prism-Δ: Differential Subspace Steering for Prompt Highlighting in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Prompt Highlighting#Large Language Models#Activation Steering#Differential SVD#Key-Value Channels#Cross-Covariance#Softplus Weighting#Inference-Time Intervention2026년 3월 11일댓글 수 로딩 중
[논문리뷰] LLM2Vec-Gen: Generative Embeddings from Large Language ModelsarXiv에 게시된 'LLM2Vec-Gen: Generative Embeddings from Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Text Embeddings#Generative AI#Self-Supervised Learning#Knowledge Distillation#Semantic Search#Retrieval-Augmented Generation2026년 3월 11일댓글 수 로딩 중
[논문리뷰] In-Context Reinforcement Learning for Tool Use in Large Language ModelsarXiv에 게시된 'In-Context Reinforcement Learning for Tool Use in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Tool Use#In-Context Learning#Few-Shot Learning#SFT-free#Data Efficiency#Curriculum Learning2026년 3월 11일댓글 수 로딩 중
[논문리뷰] Code-Space Response Oracles: Generating Interpretable Multi-Agent Policies with Large Language ModelsarXiv에 게시된 'Code-Space Response Oracles: Generating Interpretable Multi-Agent Policies with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent Reinforcement Learning#Policy-Space Response Oracles#Large Language Models#Program Synthesis#Interpretable AI#Game Theory#Code Generation2026년 3월 11일댓글 수 로딩 중
[논문리뷰] Can Large Language Models Keep Up? Benchmarking Online Adaptation to Continual Knowledge StreamsarXiv에 게시된 'Can Large Language Models Keep Up? Benchmarking Online Adaptation to Continual Knowledge Streams' 논문에 대한 자세한 리뷰입니다.#Review#Online Adaptation#Continual Learning#Knowledge Streams#Large Language Models#Benchmarking#State Tracking#Retrieval Augmented Generation#Agentic Memory2026년 3월 11일댓글 수 로딩 중
[논문리뷰] Bootstrapping Exploration with Group-Level Natural Language Feedback in Reinforcement LearningarXiv에 게시된 'Bootstrapping Exploration with Group-Level Natural Language Feedback in Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Natural Language Feedback#Exploration#Group-Level Feedback#Self-Refinement#Sample Efficiency2026년 3월 11일댓글 수 로딩 중
[논문리뷰] Reward Prediction with Factorized World StatesHongbo Zhao이 arXiv에 게시한 'Reward Prediction with Factorized World States' 논문에 대한 자세한 리뷰입니다.#Review#Reward Prediction#World Models#State Representation#Large Language Models#Zero-shot Learning#Reinforcement Learning#Planning#Factorization2026년 3월 10일댓글 수 로딩 중
[논문리뷰] Mario: Multimodal Graph Reasoning with Large Language ModelsarXiv에 게시된 'Mario: Multimodal Graph Reasoning with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Graph#Large Language Models#Graph Reasoning#Cross-Modal Alignment#Modality Adaptation#Instruction Tuning#Vision-Language Model#Node Classification2026년 3월 8일댓글 수 로딩 중
[논문리뷰] On-Policy Self-Distillation for Reasoning CompressionZhipeng Wang이 arXiv에 게시한 'On-Policy Self-Distillation for Reasoning Compression' 논문에 대한 자세한 리뷰입니다.#Review#Reasoning Compression#Self-Distillation#On-Policy Learning#Large Language Models#Mathematical Reasoning#Knowledge Distillation#Efficient Inference2026년 3월 5일댓글 수 로딩 중
[논문리뷰] Heterogeneous Agent Collaborative Reinforcement LearningarXiv에 게시된 'Heterogeneous Agent Collaborative Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Multi-Agent Systems#Policy Optimization#Heterogeneous Agents#Sample Efficiency#Knowledge Transfer#RLVR2026년 3월 4일댓글 수 로딩 중
[논문리뷰] APRES: An Agentic Paper Revision and Evaluation SystemarXiv에 게시된 'APRES: An Agentic Paper Revision and Evaluation System' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Peer Review#Automated Revision#Citation Prediction#Agentic AI#Rubric Discovery#Scholarly Communication2026년 3월 3일댓글 수 로딩 중
[논문리뷰] InfoPO: Information-Driven Policy Optimization for User-Centric AgentsYuyu Luo이 arXiv에 게시한 'InfoPO: Information-Driven Policy Optimization for User-Centric Agents' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Policy Optimization#Information Gain#Credit Assignment#Multi-turn Interaction#User-centric Agents#Counterfactual Reasoning2026년 3월 3일댓글 수 로딩 중
[논문리뷰] Learn Hard Problems During RL with Reference Guided Fine-tuningarXiv에 게시된 'Learn Hard Problems During RL with Reference Guided Fine-tuning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Mathematical Reasoning#Reward Sparsity#Fine-tuning#Large Language Models#Reference-Guided Learning#DAPO2026년 3월 2일댓글 수 로딩 중
[논문리뷰] CoVe: Training Interactive Tool-Use Agents via Constraint-Guided VerificationZichen Tian이 arXiv에 게시한 'CoVe: Training Interactive Tool-Use Agents via Constraint-Guided Verification' 논문에 대한 자세한 리뷰입니다.#Review#Tool-Use Agents#Multi-turn Interaction#Data Synthesis#Constraint-Guided Verification#Large Language Models#Supervised Fine-tuning#Reinforcement Learning2026년 3월 2일댓글 수 로딩 중
[논문리뷰] Recovered in Translation: Efficient Pipeline for Automated Translation of Benchmarks and DatasetsarXiv에 게시된 'Recovered in Translation: Efficient Pipeline for Automated Translation of Benchmarks and Datasets' 논문에 대한 자세한 리뷰입니다.#Review#Automated Translation#Large Language Models#Multilingual Benchmarks#Benchmark Quality#Test-time Scaling#Universal Self-Improvement#Translation Ranking#Eastern European Languages2026년 3월 1일댓글 수 로딩 중
[논문리뷰] MobilityBench: A Benchmark for Evaluating Route-Planning Agents in Real-World Mobility ScenariosarXiv에 게시된 'MobilityBench: A Benchmark for Evaluating Route-Planning Agents in Real-World Mobility Scenarios' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Route Planning Agents#Benchmarking#Real-World Mobility#API Replay Sandbox#Multi-dimensional Evaluation#Tool-augmented Agents2026년 2월 26일댓글 수 로딩 중
[논문리뷰] The Art of Efficient Reasoning: Data, Reward, and OptimizationarXiv에 게시된 'The Art of Efficient Reasoning: Data, Reward, and Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Efficient Reasoning#Large Language Models#Reinforcement Learning#Reward Shaping#Chain-of-Thought#RL Optimization#Length Adaptation2026년 2월 24일댓글 수 로딩 중
[논문리뷰] Query-focused and Memory-aware Reranker for Long Context ProcessingarXiv에 게시된 'Query-focused and Memory-aware Reranker for Long Context Processing' 논문에 대한 자세한 리뷰입니다.#Review#Reranking#Large Language Models#Long Context#Attention Heads#Retrieval Augmented Generation (RAG)#Listwise Reranking#Query-focused Retrieval#Memory-aware2026년 2월 24일댓글 수 로딩 중
[논문리뷰] Conv-FinRe: A Conversational and Longitudinal Benchmark for Utility-Grounded Financial RecommendationarXiv에 게시된 'Conv-FinRe: A Conversational and Longitudinal Benchmark for Utility-Grounded Financial Recommendation' 논문에 대한 자세한 리뷰입니다.#Review#Financial Recommendation#Conversational AI#Large Language Models#Utility-Grounded Evaluation#Behavioral Finance#Stock Recommendation#Longitudinal Benchmark#Inverse Optimization2026년 2월 24일댓글 수 로딩 중
[논문리뷰] Adaptive Text Anonymization: Learning Privacy-Utility Trade-offs via Prompt OptimizationarXiv에 게시된 'Adaptive Text Anonymization: Learning Privacy-Utility Trade-offs via Prompt Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Text Anonymization#Large Language Models#Prompt Optimization#Privacy-Utility Trade-offs#Evolutionary Algorithms#Multi-objective Optimization#Data Privacy2026년 2월 24일댓글 수 로딩 중
[논문리뷰] World Models for Policy Refinement in StarCraft IIarXiv에 게시된 'World Models for Policy Refinement in StarCraft II' 논문에 대한 자세한 리뷰입니다.#Review#StarCraft II#World Model#Policy Refinement#Large Language Models#Reinforcement Learning#Partial Observability#Structured Text Representation#Game AI2026년 2월 19일댓글 수 로딩 중
[논문리뷰] Discovering Multiagent Learning Algorithms with Large Language ModelsarXiv에 게시된 'Discovering Multiagent Learning Algorithms with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent Reinforcement Learning#Game Theory#Large Language Models#Evolutionary Algorithms#Counterfactual Regret Minimization#Policy Space Response Oracles#Algorithm Discovery2026년 2월 19일댓글 수 로딩 중
[논문리뷰] Computer-Using World ModelJohn Zhang이 arXiv에 게시한 'Computer-Using World Model' 논문에 대한 자세한 리뷰입니다.#Review#World Model#GUI Agents#Desktop Automation#Reinforcement Learning#Large Language Models#Visual State Realization#Textual State Transition2026년 2월 19일댓글 수 로딩 중
[논문리뷰] STAPO: Stabilizing Reinforcement Learning for LLMs by Silencing Rare Spurious TokensZhilong Zheng이 arXiv에 게시한 'STAPO: Stabilizing Reinforcement Learning for LLMs by Silencing Rare Spurious Tokens' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Training Stability#Policy Optimization#Spurious Tokens#Entropy Regularization#Gradient Modulation2026년 2월 17일댓글 수 로딩 중
[논문리뷰] Query as Anchor: Scenario-Adaptive User Representation via Large Language ModelarXiv에 게시된 'Query as Anchor: Scenario-Adaptive User Representation via Large Language Model' 논문에 대한 자세한 리뷰입니다.#Review#User Representation Learning#Large Language Models#Scenario-Adaptive#Query-Conditioned#Multi-modal#Prompt Tuning#KV-Cache#Industrial AI2026년 2월 16일댓글 수 로딩 중
[논문리뷰] Exposing the Systematic Vulnerability of Open-Weight Models to Prefill AttacksarXiv에 게시된 'Exposing the Systematic Vulnerability of Open-Weight Models to Prefill Attacks' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Prefill Attacks#AI Safety#Red Teaming#Vulnerability#Open-Weight Models#Jailbreaking#Generative AI2026년 2월 16일댓글 수 로딩 중
[논문리뷰] Benchmarking Knowledge-Extraction Attack and Defense on Retrieval-Augmented GenerationRyan Rossi이 arXiv에 게시한 'Benchmarking Knowledge-Extraction Attack and Defense on Retrieval-Augmented Generation' 논문에 대한 자세한 리뷰입니다.#Review#RAG Security#Knowledge Extraction Attack#Benchmarking#Privacy Leakage#Defense Mechanisms#Large Language Models#Retrieval Augmented Generation2026년 2월 16일댓글 수 로딩 중
[논문리뷰] AIDev: Studying AI Coding Agents on GitHubAhmed E. Hassan이 arXiv에 게시한 'AIDev: Studying AI Coding Agents on GitHub' 논문에 대한 자세한 리뷰입니다.#Review#AI Coding Agents#GitHub Data#Software Engineering#Pull Request Analysis#Human-AI Collaboration#Developer Productivity#Large Language Models2026년 2월 16일댓글 수 로딩 중
[논문리뷰] BPDQ: Bit-Plane Decomposition Quantization on a Variable Grid for Large Language ModelsarXiv에 게시된 'BPDQ: Bit-Plane Decomposition Quantization on a Variable Grid for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Quantization#Large Language Models#Post-Training Quantization#Bit-Plane Decomposition#Variable Quantization Grid#Low-Bit Quantization#Model Compression#Hessian-Induced Geometry2026년 2월 15일댓글 수 로딩 중
[논문리뷰] Think Longer to Explore Deeper: Learn to Explore In-Context via Length-Incentivized Reinforcement LearningarXiv에 게시된 'Think Longer to Explore Deeper: Learn to Explore In-Context via Length-Incentivized Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#In-Context Learning#Reinforcement Learning#Test-Time Scaling#Exploration-Exploitation#State Coverage#Reward Shaping#Chain-of-Thought2026년 2월 12일댓글 수 로딩 중
[논문리뷰] LawThinker: A Deep Research Legal Agent in Dynamic EnvironmentsarXiv에 게시된 'LawThinker: A Deep Research Legal Agent in Dynamic Environments' 논문에 대한 자세한 리뷰입니다.#Review#Legal Reasoning#AI Agent#Large Language Models#Verification#Knowledge Management#Dynamic Environments#Procedural Compliance#Tool Use2026년 2월 12일댓글 수 로딩 중
[논문리뷰] Composition-RL: Compose Your Verifiable Prompts for Reinforcement Learning of Large Language ModelsarXiv에 게시된 'Composition-RL: Compose Your Verifiable Prompts for Reinforcement Learning of Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Prompt Engineering#Compositional Generalization#Verifiable Rewards#Curriculum Learning#Mathematical Reasoning#Multi-task Learning2026년 2월 12일댓글 수 로딩 중
[논문리뷰] Towards Autonomous Mathematics ResearcharXiv에 게시된 'Towards Autonomous Mathematics Research' 논문에 대한 자세한 리뷰입니다.#Review#Mathematics Research#Large Language Models#AI Agents#Theorem Proving#Tool Use#Gemini Deep Think#Autonomous Research#Human-AI Collaboration2026년 2월 11일댓글 수 로딩 중
[논문리뷰] TimeChat-Captioner: Scripting Multi-Scene Videos with Time-Aware and Structural Audio-Visual CaptionsarXiv에 게시된 'TimeChat-Captioner: Scripting Multi-Scene Videos with Time-Aware and Structural Audio-Visual Captions' 논문에 대한 자세한 리뷰입니다.#Review#Video Captioning#Multi-Scene Videos#Time-Aware#Structural Captions#Audio-Visual Understanding#Large Language Models#Reinforcement Learning#OmniDCBench2026년 2월 11일댓글 수 로딩 중
[논문리뷰] Internalizing Meta-Experience into Memory for Guided Reinforcement Learning in Large Language ModelsZhen Fang이 arXiv에 게시한 'Internalizing Meta-Experience into Memory for Guided Reinforcement Learning in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Meta-Learning#Error Attribution#Knowledge Internalization#Self-Distillation#Verifiable Rewards2026년 2월 11일댓글 수 로딩 중
[논문리뷰] Free(): Learning to Forget in Malloc-Only Reasoning ModelsarXiv에 게시된 'Free(): Learning to Forget in Malloc-Only Reasoning Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reasoning Models#Context Management#Memory Pruning#LoRA Adapter#Long-Horizon Reasoning#Self-Forgetting2026년 2월 11일댓글 수 로딩 중
[논문리뷰] LOCA-bench: Benchmarking Language Agents Under Controllable and Extreme Context GrowtharXiv에 게시된 'LOCA-bench: Benchmarking Language Agents Under Controllable and Extreme Context Growth' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Language Agents#Long Context#Context Rot#Benchmarking#Context Management#Tool Use#Agent Evaluation#Dynamic Environments2026년 2월 9일댓글 수 로딩 중
[논문리뷰] InftyThink+: Effective and Efficient Infinite-Horizon Reasoning via Reinforcement LearningarXiv에 게시된 'InftyThink+: Effective and Efficient Infinite-Horizon Reasoning via Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Iterative Reasoning#Reinforcement Learning#Large Language Models#Context Management#Summarization#Chain-of-Thought#Efficiency#Mathematical Reasoning2026년 2월 8일댓글 수 로딩 중
[논문리뷰] Steering LLMs via Scalable Interactive OversightarXiv에 게시된 'Steering LLMs via Scalable Interactive Oversight' 논문에 대한 자세한 리뷰입니다.#Review#Scalable Oversight#Interactive AI#Large Language Models#Human-AI Collaboration#Product Requirement Documents#Reinforcement Learning#Structured Interaction#Vibe Coding2026년 2월 5일댓글 수 로딩 중
[논문리뷰] Retrieval-Infused Reasoning Sandbox: A Benchmark for Decoupling Retrieval and Reasoning CapabilitiesarXiv에 게시된 'Retrieval-Infused Reasoning Sandbox: A Benchmark for Decoupling Retrieval and Reasoning Capabilities' 논문에 대한 자세한 리뷰입니다.#Review#Retrieval-Augmented Generation#Large Language Models#Reasoning#Benchmark#Deep Search#Error Analysis#Scientific Problem Solving#Context Understanding2026년 2월 5일댓글 수 로딩 중
[논문리뷰] ProAct: Agentic Lookahead in Interactive EnvironmentsarXiv에 게시된 'ProAct: Agentic Lookahead in Interactive Environments' 논문에 대한 자세한 리뷰입니다.#Review#Agentic AI#Large Language Models#Reinforcement Learning#Lookahead Reasoning#Monte-Carlo Tree Search#Supervised Fine-Tuning#Value Estimation#Simulation Drift2026년 2월 5일댓글 수 로딩 중
[논문리뷰] BABE: Biology Arena BEnchmarkarXiv에 게시된 'BABE: Biology Arena BEnchmark' 논문에 대한 자세한 리뷰입니다.#Review#Biology Benchmark#Large Language Models#Experimental Reasoning#Causal Inference#Cross-Scale Inference#Multimodal AI#Scientific Reasoning#Research Agents2026년 2월 5일댓글 수 로딩 중
[논문리뷰] WideSeek-R1: Exploring Width Scaling for Broad Information Seeking via Multi-Agent Reinforcement LearningarXiv에 게시된 'WideSeek-R1: Exploring Width Scaling for Broad Information Seeking via Multi-Agent Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent Reinforcement Learning#Width Scaling#Large Language Models#Information Seeking#Task Decomposition#Parallel Execution#Lead-Agent-Subagent Framework#Orchestration2026년 2월 4일댓글 수 로딩 중
[논문리뷰] Self-Hinting Language Models Enhance Reinforcement LearningarXiv에 게시된 'Self-Hinting Language Models Enhance Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#GRPO#Sparse Rewards#Self-Hinting#Policy Optimization#Adaptive Curriculum#On-Policy Training2026년 2월 4일댓글 수 로딩 중
[논문리뷰] PaperSearchQA: Learning to Search and Reason over Scientific Papers with RLVRAlejandro Lozano이 arXiv에 게시한 'PaperSearchQA: Learning to Search and Reason over Scientific Papers with RLVR' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Scientific QA#Information Retrieval#Verifiable Rewards#Biomedical Domain#Search Agents#Dataset Generation2026년 2월 4일댓글 수 로딩 중
[논문리뷰] OmniSIFT: Modality-Asymmetric Token Compression for Efficient Omni-modal Large Language ModelsYiyan Ji이 arXiv에 게시한 'OmniSIFT: Modality-Asymmetric Token Compression for Efficient Omni-modal Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Omni-modal LLMs#Token Compression#Modality-Asymmetric#Video Pruning#Audio Selection#Efficiency#Large Language Models#Spatio-Temporal2026년 2월 4일댓글 수 로딩 중
[논문리뷰] SimpleGPT: Improving GPT via A Simple Normalization StrategyRong Xiao이 arXiv에 게시한 'SimpleGPT: Improving GPT via A Simple Normalization Strategy' 논문에 대한 자세한 리뷰입니다.#Review#Transformer Optimization#Normalization Strategy#Hessian Spectral Norm#Learning Rate Stability#Large Language Models#SimpleNorm#Second-Order Optimization2026년 2월 3일댓글 수 로딩 중
[논문리뷰] AOrchestra: Automating Sub-Agent Creation for Agentic OrchestrationZhaoyang Yu이 arXiv에 게시한 'AOrchestra: Automating Sub-Agent Creation for Agentic Orchestration' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Orchestration#Sub-Agent Creation#Language Agents#Dynamic Specialization#Context Management#Tool Use#Large Language Models#Cost-Performance Optimization2026년 2월 3일댓글 수 로딩 중
[논문리뷰] RLAnything: Forge Environment, Policy, and Reward Model in Completely Dynamic RL SystemarXiv에 게시된 'RLAnything: Forge Environment, Policy, and Reward Model in Completely Dynamic RL System' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Agentic AI#Reward Modeling#Environment Adaptation#Closed-loop Optimization#Multimodal Agents2026년 2월 2일댓글 수 로딩 중
[논문리뷰] RM -RF: Reward Model for Run-Free Unit Test EvaluationVadim Alperovich이 arXiv에 게시한 'RM -RF: Reward Model for Run-Free Unit Test Evaluation' 논문에 대한 자세한 리뷰입니다.#Review#Unit Test Generation#Reward Model#Reinforcement Learning#Code Coverage#Mutation Testing#Large Language Models#Run-Free Evaluation#Software Engineering Automation2026년 2월 1일댓글 수 로딩 중
[논문리뷰] MemOCR: Layout-Aware Visual Memory for Efficient Long-Horizon ReasoningYuxin Chen이 arXiv에 게시한 'MemOCR: Layout-Aware Visual Memory for Efficient Long-Horizon Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Long-Horizon Reasoning#Multimodal Memory#Visual Layout#Adaptive Information Density#Reinforcement Learning#Context Window#Large Language Models2026년 2월 1일댓글 수 로딩 중
[논문리뷰] Deep Search with Hierarchical Meta-Cognitive Monitoring Inspired by Cognitive NeurosciencearXiv에 게시된 'Deep Search with Hierarchical Meta-Cognitive Monitoring Inspired by Cognitive Neuroscience' 논문에 대한 자세한 리뷰입니다.#Review#Deep Search Agent#Meta-Cognitive Monitoring#Hierarchical Monitoring#Large Language Models#Cognitive Neuroscience#Uncertainty Calibration2026년 2월 1일댓글 수 로딩 중
[논문리뷰] MMFineReason: Closing the Multimodal Reasoning Gap via Open Data-Centric MethodsarXiv에 게시된 'MMFineReason: Closing the Multimodal Reasoning Gap via Open Data-Centric Methods' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Reasoning#Data-centric AI#Chain-of-Thought#Large Language Models#Visual Question Answering#STEM Reasoning#Dataset#Fine-tuning2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Language-based Trial and Error Falls Behind in the Era of ExperiencearXiv에 게시된 'Language-based Trial and Error Falls Behind in the Era of Experience' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reinforcement Learning#Exploration Efficiency#Sub-Scale Collaboration#Out-of-Distribution Tasks#Agentic AI#Supervised Fine-Tuning2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Discovering Hidden Gems in Model RepositoriesYedid Hoshen이 arXiv에 게시한 'Discovering Hidden Gems in Model Repositories' 논문에 대한 자세한 리뷰입니다.#Review#Model Discovery#Hidden Gems#Sequential Halving#Multi-Armed Bandit#Model Repositories#Large Language Models#Performance Evaluation2026년 1월 29일댓글 수 로딩 중
[논문리뷰] GDCNet: Generative Discrepancy Comparison Network for Multimodal Sarcasm DetectionarXiv에 게시된 'GDCNet: Generative Discrepancy Comparison Network for Multimodal Sarcasm Detection' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Sarcasm Detection#Large Language Models#Multimodal LLMs#Discrepancy Modeling#Image Captioning#Gated Fusion#Semantic Incongruity2026년 1월 28일댓글 수 로딩 중
[논문리뷰] Post-LayerNorm Is Back: Stable, ExpressivE, and DeeparXiv에 게시된 'Post-LayerNorm Is Back: Stable, ExpressivE, and Deep' 논문에 대한 자세한 리뷰입니다.#Review#Transformer Architecture#Layer Normalization#Depth Scaling#Training Stability#Large Language Models#Gradient Flow#Highway Networks#Post-LayerNorm2026년 1월 27일댓글 수 로딩 중
[논문리뷰] daVinci-Dev: Agent-native Mid-training for Software EngineeringarXiv에 게시된 'daVinci-Dev: Agent-native Mid-training for Software Engineering' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Software Engineering#Mid-training#Large Language Models#Agent-native Data#Contextual Trajectories#Environmental Trajectories#SWE-Bench Verified#Code Generation2026년 1월 26일댓글 수 로딩 중
[논문리뷰] VIBEVOICE-ASR Technical ReportarXiv에 게시된 'VIBEVOICE-ASR Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Automatic Speech Recognition#Speaker Diarization#Long-form Audio#Large Language Models#End-to-end Speech Processing#Multilingual#Context-aware ASR2026년 1월 26일댓글 수 로딩 중
[논문리뷰] STAR: Semantic Table Representation with Header-Aware Clustering and Adaptive Weighted FusionarXiv에 게시된 'STAR: Semantic Table Representation with Header-Aware Clustering and Adaptive Weighted Fusion' 논문에 대한 자세한 리뷰입니다.#Review#Table Retrieval#Semantic Representation#K-means Clustering#Weighted Fusion#Large Language Models#Query Generation#Information Retrieval2026년 1월 26일댓글 수 로딩 중
[논문리뷰] MeepleLM: A Virtual Playtester Simulating Diverse Subjective ExperiencesJianwen Sun이 arXiv에 게시한 'MeepleLM: A Virtual Playtester Simulating Diverse Subjective Experiences' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Board Games#Virtual Playtester#User Simulation#Persona Modeling#MDA Framework#Human-AI Collaboration#Critique Generation2026년 1월 25일댓글 수 로딩 중
[논문리뷰] Guidelines to Prompt Large Language Models for Code Generation: An Empirical CharacterizationGabriele Bavota이 arXiv에 게시한 'Guidelines to Prompt Large Language Models for Code Generation: An Empirical Characterization' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Code Generation#Prompt Engineering#Prompt Optimization#Empirical Study#Software Engineering#Guidelines2026년 1월 25일댓글 수 로딩 중
[논문리뷰] Dancing in Chains: Strategic Persuasion in Academic Rebuttal via Theory of MindYi R Fung이 arXiv에 게시한 'Dancing in Chains: Strategic Persuasion in Academic Rebuttal via Theory of Mind' 논문에 대한 자세한 리뷰입니다.#Review#Academic Rebuttal#Theory of Mind#Large Language Models#Strategic Persuasion#Reinforcement Learning#Self-Reward#Dataset Synthesis#Automated Evaluation2026년 1월 25일댓글 수 로딩 중
[논문리뷰] Towards Automated Kernel Generation in the Era of LLMsYixin Shen이 arXiv에 게시한 'Towards Automated Kernel Generation in the Era of LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Kernel Generation#GPU Optimization#AI Agents#Code Synthesis#Performance Engineering#Hardware Acceleration2026년 1월 22일댓글 수 로딩 중
[논문리뷰] Stable-DiffCoder: Pushing the Frontier of Code Diffusion Large Language ModelarXiv에 게시된 'Stable-DiffCoder: Pushing the Frontier of Code Diffusion Large Language Model' 논문에 대한 자세한 리뷰입니다.#Review#Code Diffusion Models#Large Language Models#Continual Pretraining#Code Generation#Code Editing#Masked Language Models#Code Reasoning2026년 1월 22일댓글 수 로딩 중
[논문리뷰] Lost in the Prompt Order: Revealing the Limitations of Causal Attention in Language ModelsarXiv에 게시된 'Lost in the Prompt Order: Revealing the Limitations of Causal Attention in Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Prompt Engineering#Large Language Models#Causal Attention#Multiple-Choice QA#Prompt Order Sensitivity#Information Bottleneck#Decoder-only Transformers2026년 1월 21일댓글 수 로딩 중
[논문리뷰] ToolPRMBench: Evaluating and Advancing Process Reward Models for Tool-using AgentsarXiv에 게시된 'ToolPRMBench: Evaluating and Advancing Process Reward Models for Tool-using Agents' 논문에 대한 자세한 리뷰입니다.#Review#Process Reward Models#Tool-using Agents#Benchmark#Reinforcement Learning#Large Language Models#Reward-guided Search#Agent Evaluation#Step-level Rewards2026년 1월 20일댓글 수 로딩 중
[논문리뷰] On the Evidentiary Limits of Membership Inference for Copyright AuditingMarten van Dijk이 arXiv에 게시한 'On the Evidentiary Limits of Membership Inference for Copyright Auditing' 논문에 대한 자세한 리뷰입니다.#Review#Membership Inference Attacks#Copyright Auditing#Large Language Models#Adversarial Robustness#Paraphrasing#Sparse Autoencoders#Semantic Preservation#LLM Security2026년 1월 20일댓글 수 로딩 중
[논문리뷰] Agentic-R: Learning to Retrieve for Agentic SearchDaiting Shi이 arXiv에 게시한 'Agentic-R: Learning to Retrieve for Agentic Search' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Search#Retrieval-Augmented Generation#Retriever Training#Passage Utility Modeling#Iterative Optimization#Reinforcement Learning#Large Language Models2026년 1월 20일댓글 수 로딩 중
[논문리뷰] Multiplex Thinking: Reasoning via Token-wise Branch-and-MergearXiv에 게시된 'Multiplex Thinking: Reasoning via Token-wise Branch-and-Merge' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reasoning#Chain-of-Thought#Reinforcement Learning#Stochastic Reasoning#Continuous Representation#Token Efficiency2026년 1월 19일댓글 수 로딩 중
[논문리뷰] Language of Thought Shapes Output Diversity in Large Language ModelsarXiv에 게시된 'Language of Thought Shapes Output Diversity in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Output Diversity#Multilingual Reasoning#Language of Thought#Sampling Strategies#Pluralistic Alignment#Hidden State Analysis#Cognitive Science2026년 1월 18일댓글 수 로딩 중
[논문리뷰] Collaborative Multi-Agent Test-Time Reinforcement Learning for ReasoningarXiv에 게시된 'Collaborative Multi-Agent Test-Time Reinforcement Learning for Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent Systems#Reinforcement Learning#Test-Time Adaptation#Large Language Models#Collaborative Reasoning#Credit Assignment#Textual Experience#Distribution Shift Robustness2026년 1월 15일댓글 수 로딩 중
[논문리뷰] Beyond Static Tools: Test-Time Tool Evolution for Scientific ReasoningarXiv에 게시된 'Beyond Static Tools: Test-Time Tool Evolution for Scientific Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Test-Time Tool Evolution#Scientific Reasoning#Large Language Models#Dynamic Tool Synthesis#Tool Adaptation#AI for Science#Autonomous Agents2026년 1월 15일댓글 수 로딩 중
[논문리뷰] A Safety Report on GPT-5.2, Gemini 3 Pro, Qwen3-VL, Doubao 1.8, Grok 4.1 Fast, Nano Banana Pro, and Seedream 4.5Yutao Wu이 arXiv에 게시한 'A Safety Report on GPT-5.2, Gemini 3 Pro, Qwen3-VL, Doubao 1.8, Grok 4.1 Fast, Nano Banana Pro, and Seedream 4.5' 논문에 대한 자세한 리뷰입니다.#Review#AI Safety#Large Language Models#Multimodal LLMs#Benchmark Evaluation#Adversarial Robustness#Multilingual Evaluation#Regulatory Compliance#Image Generation Safety2026년 1월 15일댓글 수 로딩 중
[논문리뷰] TranslateGemma Technical ReportarXiv에 게시된 'TranslateGemma Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Machine Translation#Large Language Models#Reinforcement Learning#Supervised Fine-tuning#Gemma 3#Multimodal AI#Synthetic Data2026년 1월 14일댓글 수 로딩 중
[논문리뷰] Controlled Self-Evolution for Algorithmic Code OptimizationarXiv에 게시된 'Controlled Self-Evolution for Algorithmic Code Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Self-Evolution#Code Optimization#Large Language Models#Genetic Algorithms#Hierarchical Memory#Algorithmic Code Generation#Exploration Efficiency2026년 1월 14일댓글 수 로딩 중
[논문리뷰] Are LLMs Vulnerable to Preference-Undermining Attacks (PUA)? A Factorial Analysis Methodology for Diagnosing the Trade-off between Preference Alignment and Real-World ValidityChi Zhang이 arXiv에 게시한 'Are LLMs Vulnerable to Preference-Undermining Attacks (PUA)? A Factorial Analysis Methodology for Diagnosing the Trade-off between Preference Alignment and Real-World Validity' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Preference Alignment#Preference-Undermining Attacks#Factorial Analysis#Sycophancy#Prompt Engineering#Truth-Deference Trade-off2026년 1월 14일댓글 수 로딩 중
[논문리뷰] Solar Open Technical ReportarXiv에 게시된 'Solar Open Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Mixture-of-Experts#Korean LLM#Synthetic Data Generation#Curriculum Learning#Reinforcement Learning#Tokenizer Optimization#Multilingual AI2026년 1월 13일댓글 수 로딩 중
[논문리뷰] Ministral 3arXiv에 게시된 'Ministral 3' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Model Distillation#Pruning#Parameter-Efficient AI#Multimodal LLMs#Instruction Tuning#Reinforcement Learning from Human Feedback#Open-Source AI2026년 1월 13일댓글 수 로딩 중
[논문리뷰] SmartSearch: Process Reward-Guided Query Refinement for Search AgentsGuanting Dong이 arXiv에 게시한 'SmartSearch: Process Reward-Guided Query Refinement for Search Agents' 논문에 대한 자세한 리뷰입니다.#Review#Search Agent#Information Retrieval#Large Language Models#Process Reward#Query Refinement#Reinforcement Learning#Curriculum Learning2026년 1월 11일댓글 수 로딩 중
[논문리뷰] Learnable Multipliers: Freeing the Scale of Language Model Matrix LayersarXiv에 게시된 'Learnable Multipliers: Freeing the Scale of Language Model Matrix Layers' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Weight Decay#Learnable Multipliers#Scale Adaptation#Optimization#µP Parametrization#Adam#Muon2026년 1월 8일댓글 수 로딩 중
[논문리뷰] DiffCoT: Diffusion-styled Chain-of-Thought Reasoning in LLMsJing Ma이 arXiv에 게시한 'DiffCoT: Diffusion-styled Chain-of-Thought Reasoning in LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Chain-of-Thought#Diffusion Models#Large Language Models#Reasoning#Error Correction#Preference Optimization#Denoising2026년 1월 8일댓글 수 로딩 중
[논문리뷰] MDAgent2: Large Language Model for Code Generation and Knowledge Q&A in Molecular DynamicsarXiv에 게시된 'MDAgent2: Large Language Model for Code Generation and Knowledge Q&A in Molecular Dynamics' 논문에 대한 자세한 리뷰입니다.#Review#Molecular Dynamics#LAMMPS#Code Generation#Knowledge Q&A#Large Language Models#Reinforcement Learning#Multi-agent System#Domain Adaptation2026년 1월 7일댓글 수 로딩 중
[논문리뷰] MAGMA: A Multi-Graph based Agentic Memory Architecture for AI AgentsBingzhe Li이 arXiv에 게시한 'MAGMA: A Multi-Graph based Agentic Memory Architecture for AI Agents' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Memory#Large Language Models#Retrieval-Augmented Generation#Knowledge Graphs#Multi-Graph Architecture#Long-Context Reasoning#Memory Evolution2026년 1월 7일댓글 수 로딩 중
[논문리뷰] EpiQAL: Benchmarking Large Language Models in Epidemiological Question Answering for Enhanced Alignment and ReasoningGuanchen Wu이 arXiv에 게시한 'EpiQAL: Benchmarking Large Language Models in Epidemiological Question Answering for Enhanced Alignment and Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Epidemiological Question Answering#Large Language Models#Benchmark#Multi-step Inference#Evidence Grounding#LLM Evaluation#Public Health AI#Chain-of-Thought2026년 1월 7일댓글 수 로딩 중
[논문리뷰] Recursive Language ModelsarXiv에 게시된 'Recursive Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Recursive Language Models#Large Language Models#Long Context Processing#Inference Scaling#REPL Environment#Task Decomposition#Sub-LM Calls#Context Management2026년 1월 5일댓글 수 로딩 중
[논문리뷰] Diversity or Precision? A Deep Dive into Next Token PredictionarXiv에 게시된 'Diversity or Precision? A Deep Dive into Next Token Prediction' 논문에 대한 자세한 리뷰입니다.#Review#Next Token Prediction#Reinforcement Learning#Large Language Models#Reward Shaping#Pre-training Objective#Policy Gradient#Exploration-Exploitation2026년 1월 4일댓글 수 로딩 중
[논문리뷰] mHC: Manifold-Constrained Hyper-ConnectionsarXiv에 게시된 'mHC: Manifold-Constrained Hyper-Connections' 논문에 대한 자세한 리뷰입니다.#Review#Hyper-Connections#Residual Connections#Manifold Learning#Doubly Stochastic Matrices#Training Stability#Large Language Models#Infrastructure Optimization#Deep Learning Architecture2025년 12월 31일댓글 수 로딩 중
[논문리뷰] Let It Flow: Agentic Crafting on Rock and Roll, Building the ROME Model within an Open Agentic Learning EcosystemWei Gao이 arXiv에 게시한 'Let It Flow: Agentic Crafting on Rock and Roll, Building the ROME Model within an Open Agentic Learning Ecosystem' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Learning Ecosystem#Large Language Models#Reinforcement Learning#Agentic Crafting#Tool Use#ROME Model#Policy Optimization#Sandbox Environment2025년 12월 31일댓글 수 로딩 중
[논문리뷰] GraphLocator: Graph-guided Causal Reasoning for Issue LocalizationWei Zhang이 arXiv에 게시한 'GraphLocator: Graph-guided Causal Reasoning for Issue Localization' 논문에 대한 자세한 리뷰입니다.#Review#Issue Localization#Causal Reasoning#Graph-guided#Large Language Models#Software Engineering#Defect Analysis#Repository Mining2025년 12월 30일댓글 수 로딩 중
[논문리뷰] SlideTailor: Personalized Presentation Slide Generation for Scientific PapersarXiv에 게시된 'SlideTailor: Personalized Presentation Slide Generation for Scientific Papers' 논문에 대한 자세한 리뷰입니다.#Review#Personalized Slide Generation#Preference Learning#Large Language Models#Multimodal AI#Chain-of-Speech#Agentic Framework#Document-to-Slides2025년 12월 28일댓글 수 로딩 중
[논문리뷰] Multi-LLM Thematic Analysis with Dual Reliability Metrics: Combining Cohen's Kappa and Semantic Similarity for Qualitative Research ValidationarXiv에 게시된 'Multi-LLM Thematic Analysis with Dual Reliability Metrics: Combining Cohen's Kappa and Semantic Similarity for Qualitative Research Validation' 논문에 대한 자세한 리뷰입니다.#Review#Thematic Analysis#Large Language Models#Qualitative Research#Cohen's Kappa#Semantic Similarity#Reliability Metrics#Ensemble Validation#Prompt Engineering2025년 12월 23일댓글 수 로딩 중
[논문리뷰] LongVideoAgent: Multi-Agent Reasoning with Long VideosRenjie Pi이 arXiv에 게시한 'LongVideoAgent: Multi-Agent Reasoning with Long Videos' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent System#Long Video Understanding#Video Question Answering#Reinforcement Learning#Large Language Models#Temporal Grounding#Multimodal Reasoning#Tool-Augmented AI2025년 12월 23일댓글 수 로딩 중
[논문리뷰] INTELLECT-3: Technical ReportarXiv에 게시된 'INTELLECT-3: Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Mixture-of-Experts#Asynchronous Training#Distributed Systems#Agentic AI#Code Execution#Model Evaluation2025년 12월 23일댓글 수 로딩 중
[논문리뷰] Bottom-up Policy Optimization: Your Language Model Policy Secretly Contains Internal PoliciesarXiv에 게시된 'Bottom-up Policy Optimization: Your Language Model Policy Secretly Contains Internal Policies' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Policy Optimization#Interpretability#Transformer#Internal Policy#Entropy Analysis2025년 12월 23일댓글 수 로딩 중
[논문리뷰] Can LLMs Estimate Student Struggles? Human-AI Difficulty Alignment with Proficiency Simulation for Item Difficulty PredictionHong Jiao이 arXiv에 게시한 'Can LLMs Estimate Student Struggles? Human-AI Difficulty Alignment with Proficiency Simulation for Item Difficulty Prediction' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Item Difficulty Prediction#Human-AI Alignment#Proficiency Simulation#Metacognition#Curse of Knowledge#Educational Assessment#Zero-shot Learning2025년 12월 22일댓글 수 로딩 중
[논문리뷰] Seed-Prover 1.5: Mastering Undergraduate-Level Theorem Proving via Learning from ExperiencearXiv에 게시된 'Seed-Prover 1.5: Mastering Undergraduate-Level Theorem Proving via Learning from Experience' 논문에 대한 자세한 리뷰입니다.#Review#Formal Theorem Proving#Large Language Models#Reinforcement Learning#Agentic Prover#Lean Theorem Prover#Mathematical Reasoning#Test-Time Scaling2025년 12월 21일댓글 수 로딩 중
[논문리뷰] Exploration v.s. Exploitation: Rethinking RLVR through Clipping, Entropy, and Spurious RewardarXiv에 게시된 'Exploration v.s. Exploitation: Rethinking RLVR through Clipping, Entropy, and Spurious Reward' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Exploration-Exploitation#Clipping#Policy Entropy#Spurious Rewards#Mathematical Reasoning#RLVR2025년 12월 18일댓글 수 로딩 중
[논문리뷰] SAGE: Training Smart Any-Horizon Agents for Long Video Reasoning with Reinforcement LearningarXiv에 게시된 'SAGE: Training Smart Any-Horizon Agents for Long Video Reasoning with Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Video Reasoning#Reinforcement Learning#Multi-Turn Reasoning#Agent System#Long Videos#Synthetic Data#Any-Horizon Reasoning#Large Language Models2025년 12월 17일댓글 수 로딩 중
[논문리뷰] Can LLMs Guide Their Own Exploration? Gradient-Guided Reinforcement Learning for LLM ReasoningarXiv에 게시된 'Can LLMs Guide Their Own Exploration? Gradient-Guided Reinforcement Learning for LLM Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Exploration Strategy#Gradient-Guided#Reward Shaping#Reasoning#PPO2025년 12월 17일댓글 수 로딩 중
[논문리뷰] RecGPT-V2 Technical ReportDian Chen이 arXiv에 게시한 'RecGPT-V2 Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Recommender Systems#Large Language Models#Multi-Agent Systems#Reinforcement Learning#Dynamic Prompting#Hybrid Representation#Agentic Evaluation#Explanation Generation2025년 12월 16일댓글 수 로딩 중
[논문리뷰] Olmo 3arXiv에 게시된 'Olmo 3' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Open-Source AI#Model Flow#Long-Context Reasoning#Instruction Following#Function Calling#Thinking Models#Data Curation#Reinforcement Learning2025년 12월 16일댓글 수 로딩 중
[논문리뷰] Sliding Window Attention AdaptationarXiv에 게시된 'Sliding Window Attention Adaptation' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Sliding Window Attention#Model Adaptation#Long Context#Inference Optimization#Fine-tuning#Chain-of-Thought#Sparse Attention2025년 12월 14일댓글 수 로딩 중
[논문리뷰] EtCon: Edit-then-Consolidate for Reliable Knowledge EditingChenglin Li이 arXiv에 게시한 'EtCon: Edit-then-Consolidate for Reliable Knowledge Editing' 논문에 대한 자세한 리뷰입니다.#Review#Knowledge Editing#Large Language Models#Lifelong Learning#Reinforcement Learning#Trust Region Policy Optimization#Chain-of-Thought#Catastrophic Forgetting2025년 12월 10일댓글 수 로딩 중
[논문리뷰] Beyond Token-level Supervision: Unlocking the Potential of Decoding-based Regression via Reinforcement LearningJiacheng Chen이 arXiv에 게시한 'Beyond Token-level Supervision: Unlocking the Potential of Decoding-based Regression via Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Decoding-based Regression#Reinforcement Learning#Numerical Prediction#Large Language Models#Policy Gradient#Tokenization#Sequence Generation2025년 12월 8일댓글 수 로딩 중
[논문리뷰] TwinFlow: Realizing One-step Generation on Large Models with Self-adversarial FlowsarXiv에 게시된 'TwinFlow: Realizing One-step Generation on Large Models with Self-adversarial Flows' 논문에 대한 자세한 리뷰입니다.#Review#Generative Models#One-step Generation#Self-Adversarial Learning#Flow Matching#Large Language Models#Text-to-Image#Efficient Inference#Diffusion Models2025년 12월 7일댓글 수 로딩 중
[논문리뷰] From Imitation to Discrimination: Toward A Generalized Curriculum Advantage Mechanism Enhancing Cross-Domain Reasoning TasksYang Li이 arXiv에 게시한 'From Imitation to Discrimination: Toward A Generalized Curriculum Advantage Mechanism Enhancing Cross-Domain Reasoning Tasks' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Curriculum Learning#Advantage Function#Reasoning Tasks#Multimodal AI#Policy Optimization#Generalization2025년 12월 7일댓글 수 로딩 중
[논문리뷰] Entropy Ratio Clipping as a Soft Global Constraint for Stable Reinforcement LearningZijia Lin이 arXiv에 게시한 'Entropy Ratio Clipping as a Soft Global Constraint for Stable Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Policy Optimization#Trust Region#Entropy Clipping#Large Language Models#Training Stability#Distributional Shift2025년 12월 7일댓글 수 로딩 중
[논문리뷰] PretrainZero: Reinforcement Active PretrainingGuoqi Li이 arXiv에 게시한 'PretrainZero: Reinforcement Active Pretraining' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Active Learning#Pretraining#Large Language Models#Self-Supervised Learning#Masked Language Modeling#Generalization#Reasoning2025년 12월 3일댓글 수 로딩 중
[논문리뷰] The Curious Case of Analogies: Investigating Analogical Reasoning in Large Language ModelsarXiv에 게시된 'The Curious Case of Analogies: Investigating Analogical Reasoning in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Analogical Reasoning#Large Language Models#Mechanistic Interpretability#Proportional Analogies#Story Analogies#Structural Alignment#Attention Knockout#Patchscopes2025년 12월 2일댓글 수 로딩 중
[논문리뷰] DeepSeek-V3.2: Pushing the Frontier of Open Large Language ModelsarXiv에 게시된 'DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Sparse Attention#Reinforcement Learning#Agentic AI#Tool Use#Open-source LLM#DeepSeek2025년 12월 2일댓글 수 로딩 중
[논문리뷰] C^2DLM: Causal Concept-Guided Diffusion Large Language ModelsXinpeng Dong이 arXiv에 게시한 'C^2DLM: Causal Concept-Guided Diffusion Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Large Language Models#Causality#Attention Mechanism#Reasoning#Natural Language Generation#Supervised Fine-Tuning#Concept-Guided2025년 12월 2일댓글 수 로딩 중
[논문리뷰] Wikontic: Constructing Wikidata-Aligned, Ontology-Aware Knowledge Graphs with Large Language ModelsMikhail Burtsev이 arXiv에 게시한 'Wikontic: Constructing Wikidata-Aligned, Ontology-Aware Knowledge Graphs with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Knowledge Graphs#Large Language Models#Information Extraction#Wikidata Ontology#Question Answering#Entity Normalization#Retrieval Augmented Generation2025년 12월 1일댓글 수 로딩 중
[논문리뷰] PromptBridge: Cross-Model Prompt Transfer for Large Language ModelsWei Wei이 arXiv에 게시한 'PromptBridge: Cross-Model Prompt Transfer for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Prompt Engineering#Model Drifting#Prompt Transfer#Cross-Model Adaptation#Training-Free#Prompt Optimization#MAP-RPE2025년 12월 1일댓글 수 로딩 중
[논문리뷰] OmniFusion: Simultaneous Multilingual Multimodal Translations via Modular FusionarXiv에 게시된 'OmniFusion: Simultaneous Multilingual Multimodal Translations via Modular Fusion' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Translation#Speech Translation#Simultaneous Translation#Large Language Models#Multimodal Foundation Models#Modular Fusion#End-to-End#Gated Fusion#OCR2025년 12월 1일댓글 수 로딩 중
[논문리뷰] Generalist Large Language Models Outperform Clinical Tools on Medical BenchmarksarXiv에 게시된 'Generalist Large Language Models Outperform Clinical Tools on Medical Benchmarks' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Clinical AI#Medical Benchmarks#AI Evaluation#Medical Decision Support#MedQA#HealthBench#Generalist AI2025년 12월 1일댓글 수 로딩 중
[논문리뷰] Agentic Policy Optimization via Instruction-Policy Co-EvolutionarXiv에 게시된 'Agentic Policy Optimization via Instruction-Policy Co-Evolution' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Instruction Optimization#Policy Co-Evolution#Agentic AI#Tool-Integrated Reasoning#Self-Reflection2025년 12월 1일댓글 수 로딩 중
[논문리뷰] Every Token Counts: Generalizing 16M Ultra-Long Context in Large Language ModelsWei Wu이 arXiv에 게시한 'Every Token Counts: Generalizing 16M Ultra-Long Context in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Long Context#Sparse Attention#Hierarchical Sparse Attention (HSA)#Length Generalization#Mixture of Experts (MoE)#Transformer2025년 11월 30일댓글 수 로딩 중
[논문리뷰] What does it mean to understand language?arXiv에 게시된 'What does it mean to understand language?' 논문에 대한 자세한 리뷰입니다.#Review#Language Understanding#Cognitive Neuroscience#Situation Models#World Knowledge#Embodiment#fMRI#Large Language Models#Brain Networks2025년 11월 27일댓글 수 로딩 중
[논문리뷰] Latent Collaboration in Multi-Agent SystemsarXiv에 게시된 'Latent Collaboration in Multi-Agent Systems' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent Systems#Large Language Models#Latent Space#Latent Reasoning#Latent Communication#KV Cache#Computational Efficiency#Training-Free2025년 11월 26일댓글 수 로딩 중
[논문리뷰] Yo'City: Personalized and Boundless 3D Realistic City Scene Generation via Self-Critic ExpansionZhifei Yang이 arXiv에 게시한 'Yo'City: Personalized and Boundless 3D Realistic City Scene Generation via Self-Critic Expansion' 논문에 대한 자세한 리뷰입니다.#Review#3D City Generation#Generative AI#Large Language Models#Vision-Language Models#Multi-Agent Framework#Self-Critic Learning#Scene Graph#Text-to-3D2025년 11월 25일댓글 수 로딩 중
[논문리뷰] Soft Adaptive Policy OptimizationarXiv에 게시된 'Soft Adaptive Policy Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Policy Optimization#Importance Ratios#Soft Clipping#Trust Region#Mixture-of-Experts#Asymmetric Temperature2025년 11월 25일댓글 수 로딩 중
[논문리뷰] SciEducator: Scientific Video Understanding and Educating via Deming-Cycle Multi-Agent SystemarXiv에 게시된 'SciEducator: Scientific Video Understanding and Educating via Deming-Cycle Multi-Agent System' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent System#Video Understanding#Scientific Education#Deming Cycle#Large Language Models#Iterative Optimization#Knowledge Integration#Educational Content Generation2025년 11월 25일댓글 수 로딩 중
[논문리뷰] PRInTS: Reward Modeling for Long-Horizon Information SeekingElias Stengel-Eskin이 arXiv에 게시한 'PRInTS: Reward Modeling for Long-Horizon Information Seeking' 논문에 대한 자세한 리뷰입니다.#Review#Reward Modeling#Long-Horizon Tasks#Information Seeking#Large Language Models#Trajectory Summarization#Reinforcement Learning#Tool Use#Process Reward Models2025년 11월 24일댓글 수 로딩 중
[논문리뷰] AICC: Parse HTML Finer, Make Models Better -- A 7.3T AI-Ready Corpus Built by a Model-Based HTML ParserarXiv에 게시된 'AICC: Parse HTML Finer, Make Models Better -- A 7.3T AI-Ready Corpus Built by a Model-Based HTML Parser' 논문에 대한 자세한 리뷰입니다.#Review#HTML Extraction#Web Corpus#Large Language Models#Data Curation#Structured Element Preservation#Sequence Labeling#Markdown Conversion#MainWebBench2025년 11월 24일댓글 수 로딩 중
[논문리뷰] ARC-Chapter: Structuring Hour-Long Videos into Navigable Chapters and Hierarchical SummariesarXiv에 게시된 'ARC-Chapter: Structuring Hour-Long Videos into Navigable Chapters and Hierarchical Summaries' 논문에 대한 자세한 리뷰입니다.#Review#Video Chaptering#Long-form Video Understanding#Large Language Models#Multimodal Learning#Hierarchical Summarization#Video Segmentation#Reinforcement Learning#Dataset Creation2025년 11월 19일댓글 수 로딩 중
[논문리뷰] OmniZip: Audio-Guided Dynamic Token Compression for Fast Omnimodal Large Language ModelsJian liu이 arXiv에 게시한 'OmniZip: Audio-Guided Dynamic Token Compression for Fast Omnimodal Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Omnimodal LLMs#Token Compression#Audio-Video Understanding#Dynamic Pruning#Inference Acceleration#Spatio-Temporal Compression#Large Language Models2025년 11월 18일댓글 수 로딩 중
[논문리뷰] Mitigating Label Length Bias in Large Language ModelsKatharina von der Wense이 arXiv에 게시한 'Mitigating Label Length Bias in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Label Bias#Calibration#In-Context Learning#Text Classification#Multi-token Labels#Label Length Bias#Multiple Choice QA2025년 11월 18일댓글 수 로딩 중
[논문리뷰] LLM-Powered Fully Automated Chaos Engineering: Towards Enabling Anyone to Build Resilient Software Systems at Low CostKengo Tajiri이 arXiv에 게시한 'LLM-Powered Fully Automated Chaos Engineering: Towards Enabling Anyone to Build Resilient Software Systems at Low Cost' 논문에 대한 자세한 리뷰입니다.#Review#Chaos Engineering#Large Language Models#System Resilience#Kubernetes#Software Automation#AI Agents#Fault Injection2025년 11월 18일댓글 수 로딩 중
[논문리뷰] Souper-Model: How Simple Arithmetic Unlocks State-of-the-Art LLM PerformancearXiv에 게시된 'Souper-Model: How Simple Arithmetic Unlocks State-of-the-Art LLM Performance' 논문에 대한 자세한 리뷰입니다.#Review#Model Souping#Large Language Models#Weighted Averaging#Benchmark Optimization#State-of-the-Art#Category Experts#Parameter Averaging#Post-training2025년 11월 17일댓글 수 로딩 중
[논문리뷰] P1: Mastering Physics Olympiads with Reinforcement LearningHaiyuan Wan이 arXiv에 게시한 'P1: Mastering Physics Olympiads with Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Physics Reasoning#Agentic AI#Olympiad Problems#Post-Training#Knowledge Transfer2025년 11월 17일댓글 수 로딩 중
[논문리뷰] MiroThinker: Pushing the Performance Boundaries of Open-Source Research Agents via Model, Context, and Interactive Scalingcyyang822이 arXiv에 게시한 'MiroThinker: Pushing the Performance Boundaries of Open-Source Research Agents via Model, Context, and Interactive Scaling' 논문에 대한 자세한 리뷰입니다.#Review#Research Agent#Tool-Augmented Reasoning#Interaction Scaling#Large Language Models#Reinforcement Learning#Context Management#Open-Source AI2025년 11월 17일댓글 수 로딩 중
[논문리뷰] AI-Salesman: Towards Reliable Large Language Model Driven TelemarketingHongyu Lin이 arXiv에 게시한 'AI-Salesman: Towards Reliable Large Language Model Driven Telemarketing' 논문에 대한 자세한 리뷰입니다.#Review#Telemarketing#Large Language Models#Persuasive Dialogue#Reinforcement Learning#Bayesian Optimization#Dynamic Prompting#Dialogue Systems2025년 11월 17일댓글 수 로딩 중
[논문리뷰] A Decentralized Retrieval Augmented Generation System with Source Reliabilities Secured on BlockchainMeng Jiang이 arXiv에 게시한 'A Decentralized Retrieval Augmented Generation System with Source Reliabilities Secured on Blockchain' 논문에 대한 자세한 리뷰입니다.#Review#Decentralized RAG#Blockchain#Smart Contracts#Source Reliability#Large Language Models#Retrieval Augmented Generation#Trustworthy AI2025년 11월 17일댓글 수 로딩 중
[논문리뷰] miniF2F-Lean Revisited: Reviewing Limitations and Charting a Path ForwardFarzan Farnia이 arXiv에 게시한 'miniF2F-Lean Revisited: Reviewing Limitations and Charting a Path Forward' 논문에 대한 자세한 리뷰입니다.#Review#Automated Theorem Proving#Autoformalization#Benchmark Dataset#miniF2F#Lean Language#Large Language Models#Mathematical Reasoning#Formal Verification2025년 11월 16일댓글 수 로딩 중
[논문리뷰] Large Language Models for Scientific Idea Generation: A Creativity-Centered SurveyMohammad Hossein Rohban이 arXiv에 게시한 'Large Language Models for Scientific Idea Generation: A Creativity-Centered Survey' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Scientific Discovery#Idea Generation#Creativity#Survey#AI in Science#Prompt Engineering#Multi-agent Systems#Evaluation Metrics2025년 11월 16일댓글 수 로딩 중
[논문리뷰] DoPE: Denoising Rotary Position EmbeddingMin Yang이 arXiv에 게시한 'DoPE: Denoising Rotary Position Embedding' 논문에 대한 자세한 리뷰입니다.#Review#Rotary Position Embedding#Transformer#Length Extrapolation#Attention Sink#Matrix Entropy#Denoising#Large Language Models2025년 11월 16일댓글 수 로딩 중
[논문리뷰] Superpositional Gradient Descent: Harnessing Quantum Principles for Model Trainingsuayptalha이 arXiv에 게시한 'Superpositional Gradient Descent: Harnessing Quantum Principles for Model Training' 논문에 대한 자세한 리뷰입니다.#Review#Quantum Computing#Optimization#Machine Learning#Transformers#Gradient Descent#Superposition#Large Language Models#Hybrid Quantum-Classical2025년 11월 13일댓글 수 로딩 중
[논문리뷰] CC30k: A Citation Contexts Dataset for Reproducibility-Oriented Sentiment AnalysisJian Wu이 arXiv에 게시한 'CC30k: A Citation Contexts Dataset for Reproducibility-Oriented Sentiment Analysis' 논문에 대한 자세한 리뷰입니다.#Review#Citation Contexts#Reproducibility#Sentiment Analysis#Large Language Models#Crowdsourcing#Dataset#Machine Learning#Science of Science2025년 11월 13일댓글 수 로딩 중
[논문리뷰] Agentic Refactoring: An Empirical Study of AI Coding AgentsHajimu Iida이 arXiv에 게시한 'Agentic Refactoring: An Empirical Study of AI Coding Agents' 논문에 대한 자세한 리뷰입니다.#Review#AI Agents#Code Refactoring#Software Engineering#Empirical Study#Large Language Models#Code Quality#Agentic Software Development#Maintainability2025년 11월 12일댓글 수 로딩 중
[논문리뷰] Wasm: A Pipeline for Constructing Structured Arabic Interleaved Multimodal CorporaMohamed Motasim Hamed이 arXiv에 게시한 'Wasm: A Pipeline for Constructing Structured Arabic Interleaved Multimodal Corpora' 논문에 대한 자세한 리뷰입니다.#Review#Arabic Language#Multimodal Corpus#Data Curation#Web Scraping#Large Language Models#Document Structure#Markdown#Perplexity Filtering2025년 11월 11일댓글 수 로딩 중
[논문리뷰] Walking the Tightrope of LLMs for Software Development: A Practitioners' PerspectiveChristoph Treude이 arXiv에 게시한 'Walking the Tightrope of LLMs for Software Development: A Practitioners' Perspective' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Software Engineering#Developer Productivity#Socio-Technical Grounded Theory#Practitioner Insights#AI Adoption#Benefits and Risks#Balanced Use2025년 11월 11일댓글 수 로딩 중
[논문리뷰] The Path Not Taken: RLVR Provably Learns Off the PrincipalsarXiv에 게시된 'The Path Not Taken: RLVR Provably Learns Off the Principals' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Parameter-Efficient Fine-Tuning#Optimization Bias#Spectral Geometry#Model Sparsity#LoRA2025년 11월 11일댓글 수 로딩 중
[논문리뷰] Optimizing Diversity and Quality through Base-Aligned Model CollaborationJonathan May이 arXiv에 게시한 'Optimizing Diversity and Quality through Base-Aligned Model Collaboration' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Generative AI#Diversity-Quality Trade-off#Model Collaboration#Inference Optimization#Routing Strategy#Text Generation2025년 11월 11일댓글 수 로딩 중
[논문리뷰] DynaAct: Large Language Model Reasoning with Dynamic Action SpacesLingpeng Kong이 arXiv에 게시한 'DynaAct: Large Language Model Reasoning with Dynamic Action Spaces' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Sequential Reasoning#Action Space Construction#Submodular Optimization#Markov Decision Process#Monte Carlo Tree Search#Utility-Diversity Trade-off2025년 11월 11일댓글 수 로딩 중
[논문리뷰] Beyond English: Toward Inclusive and Scalable Multilingual Machine Translation with LLMsarXiv에 게시된 'Beyond English: Toward Inclusive and Scalable Multilingual Machine Translation with LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Multilingual Machine Translation#Large Language Models#Directional Degeneration#Strategic Downsampling#Parallel Multilingual Prompting#Chinese-centric MT#Cross-lingual Transfer#Instruction Tuning2025년 11월 11일댓글 수 로딩 중
[논문리뷰] Adaptive Multi-Agent Response Refinement in Conversational SystemsarXiv에 게시된 'Adaptive Multi-Agent Response Refinement in Conversational Systems' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Multi-Agent Systems#Conversational AI#Response Refinement#Dynamic Agent Selection#Persona Alignment#Factual Grounding#Coherence2025년 11월 11일댓글 수 로딩 중
[논문리뷰] VADER: Towards Causal Video Anomaly Understanding with Relation-Aware Large Language ModelsarXiv에 게시된 'VADER: Towards Causal Video Anomaly Understanding with Relation-Aware Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Video Anomaly Understanding#Large Language Models#Causal Reasoning#Relation-Aware#Keyframe Sampling#Multimodal LLMs#Scene Graphs2025년 11월 10일댓글 수 로딩 중
[논문리뷰] The Station: An Open-World Environment for AI-Driven Discoverywydu이 arXiv에 게시한 'The Station: An Open-World Environment for AI-Driven Discovery' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent System#Open-World Environment#Scientific Discovery#AI-Driven Research#Large Language Models#Emergent Behavior#State-of-the-Art (SOTA)2025년 11월 10일댓글 수 로딩 중
[논문리뷰] Reinforcement Learning Improves Traversal of Hierarchical Knowledge in LLMsarXiv에 게시된 'Reinforcement Learning Improves Traversal of Hierarchical Knowledge in LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Hierarchical Knowledge#Knowledge Traversal#Structured Prompting#Internal Representations#Alignment Tax2025년 11월 10일댓글 수 로딩 중
[논문리뷰] Omni-AVSR: Towards Unified Multimodal Speech Recognition with Large Language ModelsarXiv에 게시된 'Omni-AVSR: Towards Unified Multimodal Speech Recognition with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Speech Recognition#Large Language Models#Audio-Visual Speech Recognition#LoRA#Matryoshka Representation Learning#Elastic Inference#Parameter-Efficient Adaptation2025년 11월 10일댓글 수 로딩 중
[논문리뷰] NURBGen: High-Fidelity Text-to-CAD Generation through LLM-Driven NURBS ModelingarXiv에 게시된 'NURBGen: High-Fidelity Text-to-CAD Generation through LLM-Driven NURBS Modeling' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-CAD#NURBS Modeling#Large Language Models#Geometric Deep Learning#Boundary Representation#Hybrid Representation#CAD Generation2025년 11월 10일댓글 수 로딩 중
[논문리뷰] Do LLMs Feel? Teaching Emotion Recognition with Prompts, Retrieval, and Curriculum LearningarXiv에 게시된 'Do LLMs Feel? Teaching Emotion Recognition with Prompts, Retrieval, and Curriculum Learning' 논문에 대한 자세한 리뷰입니다.#Review#Emotion Recognition in Conversation#Large Language Models#Prompt Engineering#Demonstration Retrieval#Curriculum Learning#Fine-tuning#Affective Computing#SOTA2025년 11월 10일댓글 수 로딩 중
[논문리뷰] VeriCoT: Neuro-symbolic Chain-of-Thought Validation via Logical Consistency ChecksarXiv에 게시된 'VeriCoT: Neuro-symbolic Chain-of-Thought Validation via Logical Consistency Checks' 논문에 대한 자세한 리뷰입니다.#Review#Neuro-symbolic AI#Chain-of-Thought#Large Language Models#Logical Consistency#Automated Verification#Fine-tuning#SMT Solvers#Self-Reflection2025년 11월 9일댓글 수 로딩 중
[논문리뷰] HAFixAgent: History-Aware Automated Program Repair AgentAhmed E. Hassan이 arXiv에 게시한 'HAFixAgent: History-Aware Automated Program Repair Agent' 논문에 대한 자세한 리뷰입니다.#Review#Automated Program Repair#AI Agent#Large Language Models#Repository Mining#Historical Context#Bug Fixing#Defects4J2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Dense Motion CaptioningPaolo Rota이 arXiv에 게시한 'Dense Motion Captioning' 논문에 대한 자세한 리뷰입니다.#Review#3D Human Motion#Dense Captioning#Large Language Models#Motion Understanding#Temporal Localization#Human-Language Datasets#Motion Generation2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTaskarXiv에 게시된 'Grounded Misunderstandings in Asymmetric Dialogue: A Perspectivist Annotation Scheme for MapTask' 논문에 대한 자세한 리뷰입니다.#Review#Dialogue Systems#Common Ground#Misunderstanding#Annotation Scheme#MapTask Corpus#Large Language Models#Perspective Taking#Reference Resolution2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Forget BIT, It is All about TOKEN: Towards Semantic Information Theory for LLMsBo Bai이 arXiv에 게시한 'Forget BIT, It is All about TOKEN: Towards Semantic Information Theory for LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Semantic Information Theory#Large Language Models#Directed Information#Rate-Distortion Function#Granger Causality#Token Embedding#Transformer Architecture#Variational Inference2025년 11월 9일댓글 수 로딩 중
[논문리뷰] OpenSIR: Open-Ended Self-Improving ReasonerarXiv에 게시된 'OpenSIR: Open-Ended Self-Improving Reasoner' 논문에 대한 자세한 리뷰입니다.#Review#Open-Ended Learning#Self-Play#Reinforcement Learning#Large Language Models#Mathematical Reasoning#Problem Generation#Curriculum Learning#Reward Shaping2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Every Activation Boosted: Scaling General Reasoner to 1 Trillion Open Language FoundationarXiv에 게시된 'Every Activation Boosted: Scaling General Reasoner to 1 Trillion Open Language Foundation' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Mixture-of-Experts#Reasoning Capability#Sparse Activation#Scaling Laws#FP8 Training#Efficient Training#Instruction Tuning2025년 11월 9일댓글 수 로딩 중
[논문리뷰] Rank-GRPO: Training LLM-based Conversational Recommender Systems with Reinforcement LearningarXiv에 게시된 'Rank-GRPO: Training LLM-based Conversational Recommender Systems with Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Conversational Recommender Systems#Large Language Models#Reinforcement Learning#Group Relative Policy Optimization#Rank-based Learning#Supervised Fine-tuning#Reward Shaping2025년 11월 9일댓글 수 로딩 중
[논문리뷰] EHR-R1: A Reasoning-Enhanced Foundational Language Model for Electronic Health Record AnalysisarXiv에 게시된 'EHR-R1: A Reasoning-Enhanced Foundational Language Model for Electronic Health Record Analysis' 논문에 대한 자세한 리뷰입니다.#Review#Electronic Health Records#Large Language Models#Reasoning Enhancement#Instruction Tuning#Reinforcement Learning#Data Synthesis#Medical AI#Clinical Decision Support2025년 10월 31일댓글 수 로딩 중
[논문리뷰] Can Agent Conquer Web? Exploring the Frontiers of ChatGPT Atlas Agent in Web GamesJustin Cui이 arXiv에 게시한 'Can Agent Conquer Web? Exploring the Frontiers of ChatGPT Atlas Agent in Web Games' 논문에 대한 자세한 리뷰입니다.#Review#Web Agent#Large Language Models#Multimodal AI#Browser Automation#Game AI#ChatGPT Atlas#Performance Evaluation#Human-Computer Interaction2025년 10월 31일댓글 수 로딩 중
[논문리뷰] TheraMind: A Strategic and Adaptive Agent for Longitudinal Psychological CounselingZheng Zhang이 arXiv에 게시한 'TheraMind: A Strategic and Adaptive Agent for Longitudinal Psychological Counseling' 논문에 대한 자세한 리뷰입니다.#Review#Longitudinal Counseling#Adaptive Agent#Dual-Loop Architecture#Large Language Models#Psychotherapy#Mental Health AI#Dialogue Management2025년 10월 30일댓글 수 로딩 중
[논문리뷰] Reasoning-Aware GRPO using Process MiningarXiv에 게시된 'Reasoning-Aware GRPO using Process Mining' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Process Mining#Policy Optimization#Mathematical Reasoning#GRPO#PM4GRPO2025년 10월 30일댓글 수 로딩 중
[논문리뷰] ReForm: Reflective Autoformalization with Prospective Bounded Sequence OptimizationRuihua Song이 arXiv에 게시한 'ReForm: Reflective Autoformalization with Prospective Bounded Sequence Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Autoformalization#Large Language Models#Reinforcement Learning#Self-Reflection#Semantic Consistency#Formal Mathematical Reasoning#Sequence Optimization2025년 10월 30일댓글 수 로딩 중
[논문리뷰] Parallel Loop Transformer for Efficient Test-Time Computation ScalingarXiv에 게시된 'Parallel Loop Transformer for Efficient Test-Time Computation Scaling' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Looped Transformers#Inference Efficiency#Parallel Computation#KV Cache Optimization#Gated Sliding-Window Attention#Cross-Loop Parallelism2025년 10월 30일댓글 수 로딩 중
[논문리뷰] JanusCoder: Towards a Foundational Visual-Programmatic Interface for Code IntelligencearXiv에 게시된 'JanusCoder: Towards a Foundational Visual-Programmatic Interface for Code Intelligence' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Code Intelligence#Visual-Programmatic Interface#Code Generation#Data Synthesis#Large Language Models#Visualizations#Web UI#Animation2025년 10월 30일댓글 수 로딩 중
[논문리뷰] FAPO: Flawed-Aware Policy Optimization for Efficient and Reliable ReasoningXin Liu이 arXiv에 게시한 'FAPO: Flawed-Aware Policy Optimization for Efficient and Reliable Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Reasoning#Policy Optimization#Reward Modeling#Flawed Reasoning#Reliable AI#Error Detection2025년 10월 30일댓글 수 로딩 중
[논문리뷰] VisCoder2: Building Multi-Language Visualization Coding AgentsarXiv에 게시된 'VisCoder2: Building Multi-Language Visualization Coding Agents' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Language Visualization#Code Generation#Self-Debugging#Instruction Tuning#Large Language Models#Visualization Benchmark#Coding Agents#Code-Feedback2025년 10월 29일댓글 수 로딩 중
[논문리뷰] ReplicationBench: Can AI Agents Replicate Astrophysics Research Papers?Ian L. V. Roque이 arXiv에 게시한 'ReplicationBench: Can AI Agents Replicate Astrophysics Research Papers?' 논문에 대한 자세한 리뷰입니다.#Review#AI Agents#Astrophysics Research#Reproducibility Benchmark#Large Language Models#Scientific Workflow#Code Execution#Evaluation Framework2025년 10월 29일댓글 수 로딩 중
[논문리뷰] The Best of N Worlds: Aligning Reinforcement Learning with Best-of-N Sampling via max@k OptimisationarXiv에 게시된 'The Best of N Worlds: Aligning Reinforcement Learning with Best-of-N Sampling via max@k Optimisation' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Best-of-N Sampling#Max@k Optimization#Policy Gradients#Off-policy Learning#Code Generation2025년 10월 28일댓글 수 로딩 중
[논문리뷰] Mitigating Attention Sinks and Massive Activations in Audio-Visual Speech Recognition with LLMSarXiv에 게시된 'Mitigating Attention Sinks and Massive Activations in Audio-Visual Speech Recognition with LLMS' 논문에 대한 자세한 리뷰입니다.#Review#Audio-Visual Speech Recognition#Large Language Models#Attention Sinks#Massive Activations#Decorrelation Loss#Fine-tuning#Multimodal AI2025년 10월 28일댓글 수 로딩 중
[논문리뷰] LimRank: Less is More for Reasoning-Intensive Information RerankingArman Cohan이 arXiv에 게시한 'LimRank: Less is More for Reasoning-Intensive Information Reranking' 논문에 대한 자세한 리뷰입니다.#Review#Information Reranking#Large Language Models#Data Synthesis#Reasoning-Intensive Retrieval#Low-Resource Learning#Data Efficiency#Instruction Following2025년 10월 28일댓글 수 로딩 중
[논문리뷰] Knocking-Heads AttentionJianguo Li이 arXiv에 게시한 'Knocking-Heads Attention' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Head Attention#Transformer#Large Language Models#Inter-Head Communication#Parameter Sharing#Training Stability#Diagonal Initialization2025년 10월 28일댓글 수 로딩 중
[논문리뷰] Code Aesthetics with Agentic Reward FeedbackYupan Huang이 arXiv에 게시한 'Code Aesthetics with Agentic Reward Feedback' 논문에 대한 자세한 리뷰입니다.#Review#Code Aesthetics#Agentic Reward Feedback#Large Language Models#Reinforcement Learning#Instruction Tuning#Webpage Design#Multimodal Evaluation2025년 10월 28일댓글 수 로딩 중
[논문리뷰] Soft Instruction De-escalation DefensearXiv에 게시된 'Soft Instruction De-escalation Defense' 논문에 대한 자세한 리뷰입니다.#Review#Prompt Injection#LLM Security#Agentic Systems#Iterative Sanitization#Instruction Control#Adversarial Robustness#Large Language Models2025년 10월 27일댓글 수 로딩 중
[논문리뷰] Document Understanding, Measurement, and Manipulation Using Category TheoryarXiv에 게시된 'Document Understanding, Measurement, and Manipulation Using Category Theory' 논문에 대한 자세한 리뷰입니다.#Review#Category Theory#Document Understanding#Large Language Models#Information Theory#Rhetorical Structure Theory#Document Summarization#Rate Distortion Analysis#Self-supervised Learning2025년 10월 27일댓글 수 로딩 중
[논문리뷰] DeepAgent: A General Reasoning Agent with Scalable ToolsetsJiajie Jin이 arXiv에 게시한 'DeepAgent: A General Reasoning Agent with Scalable Toolsets' 논문에 대한 자세한 리뷰입니다.#Review#Autonomous Agents#Large Language Models#Tool Use#Reinforcement Learning#Memory Management#Tool Retrieval#Agentic Reasoning2025년 10월 27일댓글 수 로딩 중
[논문리뷰] ARC-Encoder: learning compressed text representations for large language modelsarXiv에 게시된 'ARC-Encoder: learning compressed text representations for large language models' 논문에 대한 자세한 리뷰입니다.#Review#Context Compression#Large Language Models#Encoder-Decoder Architecture#Text Representation#In-Context Learning#Parameter Efficiency#Retrieval-Augmented Generation2025년 10월 27일댓글 수 로딩 중
[논문리뷰] Machine Text Detectors are Membership Inference AttacksNaoaki Okazaki이 arXiv에 게시한 'Machine Text Detectors are Membership Inference Attacks' 논문에 대한 자세한 리뷰입니다.#Review#Membership Inference Attacks#Machine-Generated Text Detection#Transferability#Likelihood Ratio Test#Large Language Models#Zero-Shot Detection#Model Security#AI Safety2025년 10월 23일댓글 수 로딩 중
[논문리뷰] LoongRL:Reinforcement Learning for Advanced Reasoning over Long ContextsarXiv에 게시된 'LoongRL:Reinforcement Learning for Advanced Reasoning over Long Contexts' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Long Context Reasoning#Large Language Models#Multi-hop QA#Data Synthesis#Retrieval-Augmented Generation#Chain-of-Thought2025년 10월 23일댓글 수 로딩 중
[논문리뷰] BAPO: Stabilizing Off-Policy Reinforcement Learning for LLMs via Balanced Policy Optimization with Adaptive ClippingJunrui Shen이 arXiv에 게시한 'BAPO: Stabilizing Off-Policy Reinforcement Learning for LLMs via Balanced Policy Optimization with Adaptive Clipping' 논문에 대한 자세한 리뷰입니다.#Review#Off-Policy Reinforcement Learning#Large Language Models#Adaptive Clipping#Policy Optimization#PPO#Entropy Preservation#RL Stabilization2025년 10월 23일댓글 수 로딩 중
[논문리뷰] UniGenBench++: A Unified Semantic Evaluation Benchmark for Text-to-Image GenerationYujie Zhou이 arXiv에 게시한 'UniGenBench++: A Unified Semantic Evaluation Benchmark for Text-to-Image Generation' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Image Generation#Semantic Evaluation#Benchmark#Multilingual Evaluation#Fine-grained Assessment#Large Language Models#Model Evaluation#Prompt Engineering2025년 10월 22일댓글 수 로딩 중
[논문리뷰] PokeeResearch: Effective Deep Research via Reinforcement Learning from AI Feedback and Robust Reasoning ScaffoldarXiv에 게시된 'PokeeResearch: Effective Deep Research via Reinforcement Learning from AI Feedback and Robust Reasoning Scaffold' 논문에 대한 자세한 리뷰입니다.#Review#Deep Research Agent#Reinforcement Learning from AI Feedback#RLOO Algorithm#Large Language Models#Tool Use#Self-Correction#Reasoning Scaffold#Agent Alignment2025년 10월 22일댓글 수 로딩 중
[논문리뷰] Extracting alignment data in open modelsarXiv에 게시된 'Extracting alignment data in open models' 논문에 대한 자세한 리뷰입니다.#Review#Alignment Data Extraction#Large Language Models#Memorization#Neural Embeddings#Semantic Similarity#Chat Templates#Model Distillation#Reinforcement Learning#Supervised Finetuning2025년 10월 22일댓글 수 로딩 중
[논문리뷰] EvoSyn: Generalizable Evolutionary Data Synthesis for Verifiable LearningQipeng Guo이 arXiv에 게시한 'EvoSyn: Generalizable Evolutionary Data Synthesis for Verifiable Learning' 논문에 대한 자세한 리뷰입니다.#Review#Verifiable Learning#Data Synthesis#Evolutionary Algorithm#Large Language Models#Reinforcement Learning#Model Distillation#Test Generation2025년 10월 22일댓글 수 로딩 중
[논문리뷰] Chem-R: Learning to Reason as a ChemistarXiv에 게시된 'Chem-R: Learning to Reason as a Chemist' 논문에 대한 자세한 리뷰입니다.#Review#Chemical Reasoning#Large Language Models#Chem-R#Structured Reasoning#Multi-task Optimization#Chain-of-Thought#Chemical Discovery2025년 10월 22일댓글 수 로딩 중
[논문리뷰] Paper2Web: Let's Make Your Paper Alive!Yao Wan이 arXiv에 게시한 'Paper2Web: Let's Make Your Paper Alive!' 논문에 대한 자세한 리뷰입니다.#Review#Academic Webpage Generation#Multi-Agent Systems#Large Language Models#Model Context Protocol#Interactive Content#Multimedia Dissemination#Evaluation Benchmark#Human-Computer Interaction2025년 10월 20일댓글 수 로딩 중
[논문리뷰] Language Models Model LanguagearXiv에 게시된 'Language Models Model Language' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Linguistics#Witold Mańczak#Frequency Hypothesis#Empirical Validation#Usage-Based Linguistics#Semantic Embeddings2025년 10월 20일댓글 수 로딩 중
[논문리뷰] DLER: Doing Length pEnalty Right - Incentivizing More Intelligence per Token via Reinforcement LearningarXiv에 게시된 'DLER: Doing Length pEnalty Right - Incentivizing More Intelligence per Token via Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Length Penalty#Reasoning Efficiency#Large Language Models#RL Optimization#Accuracy-Efficiency Trade-off#Chain-of-Thought2025년 10월 20일댓글 수 로딩 중
[논문리뷰] VLA-0: Building State-of-the-Art VLAs with Zero ModificationarXiv에 게시된 'VLA-0: Building State-of-the-Art VLAs with Zero Modification' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Language-Action Models#VLA-0#Zero Modification#Text-based Action Prediction#Robot Manipulation#Large Language Models#Fine-tuning#State-of-the-Art2025년 10월 17일댓글 수 로딩 중
[논문리뷰] The German Commons - 154 Billion Tokens of Openly Licensed Text for German Language ModelsarXiv에 게시된 'The German Commons - 154 Billion Tokens of Openly Licensed Text for German Language Models' 논문에 대한 자세한 리뷰입니다.#Review#German Commons#Large Language Models#Training Data#Openly Licensed Text#Data Curation#German NLP#Corpus Construction#Quality Filtering2025년 10월 17일댓글 수 로딩 중
[논문리뷰] RAGCap-Bench: Benchmarking Capabilities of LLMs in Agentic Retrieval Augmented Generation SystemsarXiv에 게시된 'RAGCap-Bench: Benchmarking Capabilities of LLMs in Agentic Retrieval Augmented Generation Systems' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Retrieval Augmented Generation#Agentic Systems#Benchmarking#Intermediate Tasks#Error Analysis#LLM Evaluation2025년 10월 17일댓글 수 로딩 중
[논문리뷰] LLM-guided Hierarchical RetrievalarXiv에 게시된 'LLM-guided Hierarchical Retrieval' 논문에 대한 자세한 리뷰입니다.#Review#Information Retrieval#Large Language Models#Hierarchical Retrieval#Semantic Tree#Tree Traversal#Zero-shot Performance#Reasoning-based Retrieval#Computational Efficiency2025년 10월 17일댓글 수 로딩 중
[논문리뷰] Agentic Entropy-Balanced Policy OptimizationarXiv에 게시된 'Agentic Entropy-Balanced Policy Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Reinforcement Learning#Web Agents#Tool Learning#Entropy Balancing#Policy Optimization#Rollout Strategy#Large Language Models2025년 10월 17일댓글 수 로딩 중
[논문리뷰] Revisiting Model Interpolation for Efficient ReasoningarXiv에 게시된 'Revisiting Model Interpolation for Efficient Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Model Interpolation#Efficient Reasoning#Large Language Models#Chain-of-Thought#Model Merging#Performance Dynamics#Ablation Study2025년 10월 16일댓글 수 로딩 중
[논문리뷰] MTSQL-R1: Towards Long-Horizon Multi-Turn Text-to-SQL via Agentic TrainingarXiv에 게시된 'MTSQL-R1: Towards Long-Horizon Multi-Turn Text-to-SQL via Agentic Training' 논문에 대한 자세한 리뷰입니다.#Review#Multi-turn Text-to-SQL#Agentic Training#Reinforcement Learning#Large Language Models#Dialogue Systems#Semantic Parsing#Database Interaction#Self-correction2025년 10월 16일댓글 수 로딩 중
[논문리뷰] Hierarchical Frequency Tagging Probe (HFTP): A Unified Approach to Investigate Syntactic Structure Representations in Large Language Models and the Human BrainLingxi Lu이 arXiv에 게시한 'Hierarchical Frequency Tagging Probe (HFTP): A Unified Approach to Investigate Syntactic Structure Representations in Large Language Models and the Human Brain' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Syntactic Structure#Human Brain#Frequency Tagging#Neuroscience#Model Interpretability#Representational Similarity Analysis#Intracranial EEG2025년 10월 16일댓글 수 로딩 중
[논문리뷰] Memory as Action: Autonomous Context Curation for Long-Horizon Agentic TasksXueyuan Lin이 arXiv에 게시한 'Memory as Action: Autonomous Context Curation for Long-Horizon Agentic Tasks' 논문에 대한 자세한 리뷰입니다.#Review#Long-Horizon Tasks#Agentic AI#Context Curation#Working Memory#Reinforcement Learning#Policy Optimization#Large Language Models#Memory-as-Action2025년 10월 15일댓글 수 로딩 중
[논문리뷰] Information-Preserving Reformulation of Reasoning Traces for AntidistillationarXiv에 게시된 'Information-Preserving Reformulation of Reasoning Traces for Antidistillation' 논문에 대한 자세한 리뷰입니다.#Review#Antidistillation#Reasoning Traces#Large Language Models#Knowledge Distillation#Information Preservation#Trace Reformulation#Supervised Fine-Tuning2025년 10월 15일댓글 수 로딩 중
[논문리뷰] A Survey of Vibe Coding with Large Language ModelsarXiv에 게시된 'A Survey of Vibe Coding with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vibe Coding#Large Language Models#Coding Agents#Human-AI Collaboration#Software Engineering#Development Models#Context Engineering2025년 10월 15일댓글 수 로딩 중
[논문리뷰] ReviewerToo: Should AI Join The Program Committee? A Look At The Future of Peer ReviewChristopher Pal이 arXiv에 게시한 'ReviewerToo: Should AI Join The Program Committee? A Look At The Future of Peer Review' 논문에 대한 자세한 리뷰입니다.#Review#Peer Review#AI-Assisted Review#Large Language Models#LLM Agents#Meta-Review#Conference Submissions#Reviewer Personas#Evaluation Metrics2025년 10월 13일댓글 수 로딩 중
[논문리뷰] GTAlign: Game-Theoretic Alignment of LLM Assistants for Mutual WelfarearXiv에 게시된 'GTAlign: Game-Theoretic Alignment of LLM Assistants for Mutual Welfare' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#LLM Alignment#Game Theory#Reinforcement Learning#Mutual Welfare#Payoff Matrix#Strategic Decision Making#Human-AI Interaction2025년 10월 13일댓글 수 로딩 중
[논문리뷰] Don't Waste Mistakes: Leveraging Negative RL-Groups via Confidence ReweightingJulia Kempe이 arXiv에 게시한 'Don't Waste Mistakes: Leveraging Negative RL-Groups via Confidence Reweighting' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Reasoning Tasks#GRPO#Negative Samples#Reward Modeling#Confidence Reweighting#Mathematical Reasoning2025년 10월 13일댓글 수 로딩 중
[논문리뷰] DISCO: Diversifying Sample Condensation for Efficient Model EvaluationarXiv에 게시된 'DISCO: Diversifying Sample Condensation for Efficient Model Evaluation' 논문에 대한 자세한 리뷰입니다.#Review#Efficient Evaluation#Sample Condensation#Model Disagreement#Predictive Diversity#Performance Prediction#Large Language Models#Model Signatures#Meta-modeling2025년 10월 13일댓글 수 로딩 중
[논문리뷰] BigCodeArena: Unveiling More Reliable Human Preferences in Code Generation via ExecutionHange Liu이 arXiv에 게시한 'BigCodeArena: Unveiling More Reliable Human Preferences in Code Generation via Execution' 논문에 대한 자세한 리뷰입니다.#Review#Code Generation#Human Preference#LLM Evaluation#Execution Feedback#Benchmarking#Crowdsourcing#Software Engineering#Large Language Models2025년 10월 13일댓글 수 로딩 중
[논문리뷰] AutoPR: Let's Automate Your Academic Promotion!Yixin Yuan이 arXiv에 게시한 'AutoPR: Let's Automate Your Academic Promotion!' 논문에 대한 자세한 리뷰입니다.#Review#Academic Promotion#Large Language Models#Multi-Agent Systems#Scholarly Communication#Multimodal Processing#Benchmark#Content Generation#Social Media Marketing2025년 10월 13일댓글 수 로딩 중
[논문리뷰] UNIDOC-BENCH: A Unified Benchmark for Document-Centric Multimodal RAGarXiv에 게시된 'UNIDOC-BENCH: A Unified Benchmark for Document-Centric Multimodal RAG' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal RAG#Document AI#Benchmark#Information Retrieval#Large Language Models#Multimodal Embeddings#PDF Processing#Question Answering2025년 10월 10일댓글 수 로딩 중
[논문리뷰] Search-R3: Unifying Reasoning and Embedding Generation in Large Language ModelsJames Cheng이 arXiv에 게시한 'Search-R3: Unifying Reasoning and Embedding Generation in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reinforcement Learning#Sentence Embedding#Retrieval-Augmented Generation#Chain-of-Thought#Information Retrieval#Supervised Fine-tuning2025년 10월 10일댓글 수 로딩 중
[논문리뷰] Recycling Pretrained Checkpoints: Orthogonal Growth of Mixture-of-Experts for Efficient Large Language Model Pre-TrainingPeng Cheng이 arXiv에 게시한 'Recycling Pretrained Checkpoints: Orthogonal Growth of Mixture-of-Experts for Efficient Large Language Model Pre-Training' 논문에 대한 자세한 리뷰입니다.#Review#Mixture-of-Experts#Large Language Models#Checkpoint Recycling#Model Growth#Efficient Pretraining#Depth Growth#Width Growth#Sunk Cost2025년 10월 10일댓글 수 로딩 중
[논문리뷰] Memory Retrieval and Consolidation in Large Language Models through Function TokensarXiv에 게시된 'Memory Retrieval and Consolidation in Large Language Models through Function Tokens' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#LLM Interpretability#Function Tokens#Memory Retrieval#Memory Consolidation#Sparse Autoencoders#Pre-training2025년 10월 10일댓글 수 로딩 중
[논문리뷰] From What to Why: A Multi-Agent System for Evidence-based Chemical Reaction Condition ReasoningFeiwei Qin이 arXiv에 게시한 'From What to Why: A Multi-Agent System for Evidence-based Chemical Reaction Condition Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent System#Chemical Reaction Prediction#Explainable AI#Evidence-Based Reasoning#Large Language Models#Tool-Augmented LLMs#Scientific Discovery2025년 10월 10일댓글 수 로딩 중
[논문리뷰] Entropy Regularizing Activation: Boosting Continuous Control, Large Language Models, and Image Classification with Activation as Entropy ConstraintsHuazhe Xu이 arXiv에 게시한 'Entropy Regularizing Activation: Boosting Continuous Control, Large Language Models, and Image Classification with Activation as Entropy Constraints' 논문에 대한 자세한 리뷰입니다.#Review#Entropy Regularization#Activation Functions#Continuous Control#Large Language Models#Image Classification#Reinforcement Learning#Policy Stochasticity#Entropy Constraints2025년 10월 10일댓글 수 로딩 중
[논문리뷰] A^2Search: Ambiguity-Aware Question Answering with Reinforcement LearningarXiv에 게시된 'A^2Search: Ambiguity-Aware Question Answering with Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Question Answering#Reinforcement Learning#Large Language Models#Ambiguity Resolution#Multi-hop QA#Automated Data Generation#Tool-Augmented LLMs#AnsF1 Reward2025년 10월 10일댓글 수 로딩 중
[논문리뷰] Vibe Checker: Aligning Code Evaluation with Human PreferencearXiv에 게시된 'Vibe Checker: Aligning Code Evaluation with Human Preference' 논문에 대한 자세한 리뷰입니다.#Review#Code Evaluation#Instruction Following#Human Preference#Large Language Models#Vibe Check#Non-functional Requirements#VeriCode2025년 10월 9일댓글 수 로딩 중
[논문리뷰] The Markovian ThinkerarXiv에 게시된 'The Markovian Thinker' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Chain-of-Thought#Markovian Thinking#Context Management#Computational Efficiency#Long-Context LLMs#Transformer Optimization2025년 10월 9일댓글 수 로딩 중
[논문리뷰] DeepTravel: An End-to-End Agentic Reinforcement Learning Framework for Autonomous Travel Planning AgentsarXiv에 게시된 'DeepTravel: An End-to-End Agentic Reinforcement Learning Framework for Autonomous Travel Planning Agents' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Reinforcement Learning#Travel Planning#Large Language Models#Sandbox Environment#Hierarchical Reward Modeling#Experience Replay#Autonomous Agents2025년 10월 9일댓글 수 로딩 중
[논문리뷰] Beyond Monolingual Assumptions: A Survey of Code-Switched NLP in the Era of Large Language ModelsarXiv에 게시된 'Beyond Monolingual Assumptions: A Survey of Code-Switched NLP in the Era of Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Code-switching#Multilingual NLP#Large Language Models#NLP Survey#Data Augmentation#Evaluation Metrics#Low-Resource Languages2025년 10월 9일댓글 수 로딩 중
[논문리뷰] Training Dynamics Impact Post-Training Quantization RobustnessJonas Geiping이 arXiv에 게시한 'Training Dynamics Impact Post-Training Quantization Robustness' 논문에 대한 자세한 리뷰입니다.#Review#Post-Training Quantization#Quantization Robustness#Training Dynamics#Learning Rate Schedules#Weight Averaging#Large Language Models#LLMs#Hyperparameter Tuning2025년 10월 8일댓글 수 로딩 중
[논문리뷰] TaTToo: Tool-Grounded Thinking PRM for Test-Time Scaling in Tabular ReasoningarXiv에 게시된 'TaTToo: Tool-Grounded Thinking PRM for Test-Time Scaling in Tabular Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Process Reward Models#Tabular Reasoning#Test-Time Scaling#Tool Integration#Reinforcement Learning#Supervised Fine-tuning#Large Language Models#Data Curation2025년 10월 8일댓글 수 로딩 중
[논문리뷰] Margin Adaptive DPO: Leveraging Reward Model for Granular Control in Preference Optimizationsirano1004이 arXiv에 게시한 'Margin Adaptive DPO: Leveraging Reward Model for Granular Control in Preference Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Direct Preference Optimization#Preference Alignment#Adaptive Regularization#Reward Model#Large Language Models#Sentiment Generation2025년 10월 8일댓글 수 로딩 중
[논문리뷰] CARE: Cognitive-reasoning Augmented Reinforcement for Emotional Support ConversationarXiv에 게시된 'CARE: Cognitive-reasoning Augmented Reinforcement for Emotional Support Conversation' 논문에 대한 자세한 리뷰입니다.#Review#Emotional Support Conversation#Cognitive Reasoning#Reinforcement Learning#Dialogue Generation#Natural Language Processing#Large Language Models#Psychological Support2025년 10월 8일댓글 수 로딩 중
[논문리뷰] ASPO: Asymmetric Importance Sampling Policy OptimizationXiu Li이 arXiv에 게시한 'ASPO: Asymmetric Importance Sampling Policy Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Importance Sampling#Policy Optimization#PPO-Clip#Outcome-Supervised RL#Token Weighting#GRPO2025년 10월 8일댓글 수 로딩 중
[논문리뷰] Watch and Learn: Learning to Use Computers from Online VideosOriana Riva이 arXiv에 게시한 'Watch and Learn: Learning to Use Computers from Online Videos' 논문에 대한 자세한 리뷰입니다.#Review#Computer Use Agents#Inverse Dynamics Model#UI Trajectories#Web Videos#In-Context Learning#Supervised Fine-Tuning#Large Language Models#OSWorld Benchmark2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Self-Reflective Generation at Test TimeShuang Qiu이 arXiv에 게시한 'Self-Reflective Generation at Test Time' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Self-Reflection#Test-Time Optimization#Uncertainty Monitoring#Proactive Error Prevention#Reasoning Tasks#Chain-of-Thought2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Optimal Scaling Needs Optimal NormStefan Kesselheim이 arXiv에 게시한 'Optimal Scaling Needs Optimal Norm' 논문에 대한 자세한 리뷰입니다.#Review#Optimal Scaling#Norm-Based Optimizers#Hyperparameter Transfer#Learning Rate Scaling#Batch Size Scaling#Transformer Models#Scion Optimizer#Large Language Models2025년 10월 7일댓글 수 로딩 중
[논문리뷰] MoME: Mixture of Matryoshka Experts for Audio-Visual Speech RecognitionarXiv에 게시된 'MoME: Mixture of Matryoshka Experts for Audio-Visual Speech Recognition' 논문에 대한 자세한 리뷰입니다.#Review#Audio-Visual Speech Recognition#Mixture of Experts#Matryoshka Representation Learning#Large Language Models#Elastic Inference#Token Compression#Multimodal AI2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Learning on the Job: Test-Time Curricula for Targeted Reinforcement LearningarXiv에 게시된 'Learning on the Job: Test-Time Curricula for Targeted Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Test-Time Curriculum#Reinforcement Learning#Large Language Models#Self-Curated Learning#Continual Learning#Reasoning Benchmarks#Adaptive Training2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Judging with Confidence: Calibrating Autoraters to Preference DistributionsarXiv에 게시된 'Judging with Confidence: Calibrating Autoraters to Preference Distributions' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Autoraters#Calibration#Preference Distributions#Reinforcement Learning#Supervised Fine-tuning#Positional Bias2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Imperceptible Jailbreaking against Large Language ModelsarXiv에 게시된 'Imperceptible Jailbreaking against Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Jailbreaking#Imperceptible Attacks#Unicode Variation Selectors#Adversarial Suffixes#Safety Alignment#Prompt Injection2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Front-Loading Reasoning: The Synergy between Pretraining and Post-Training DataarXiv에 게시된 'Front-Loading Reasoning: The Synergy between Pretraining and Post-Training Data' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Pretraining#Supervised Fine-tuning#Reasoning Data#Data Allocation#Diversity#Quality#Reinforcement Learning2025년 10월 7일댓글 수 로딩 중
[논문리뷰] EvolProver: Advancing Automated Theorem Proving by Evolving Formalized Problems via Symmetry and DifficultyXuanwu Wang이 arXiv에 게시한 'EvolProver: Advancing Automated Theorem Proving by Evolving Formalized Problems via Symmetry and Difficulty' 논문에 대한 자세한 리뷰입니다.#Review#Automated Theorem Proving#Data Augmentation#Large Language Models#Formal Mathematics#Symmetry#Difficulty Evolution#Abstract Syntax Tree#Generalizability2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Epistemic Diversity and Knowledge Collapse in Large Language ModelsarXiv에 게시된 'Epistemic Diversity and Knowledge Collapse in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Epistemic Diversity#Knowledge Collapse#Homogenization#Retrieval-Augmented Generation#LLM Evaluation#Information Diversity#Cultural Bias2025년 10월 7일댓글 수 로딩 중
[논문리뷰] WAInjectBench: Benchmarking Prompt Injection Detections for Web AgentsNeil Zhenqiang Gong이 arXiv에 게시한 'WAInjectBench: Benchmarking Prompt Injection Detections for Web Agents' 논문에 대한 자세한 리뷰입니다.#Review#Prompt Injection#Web Agents#Multimodal AI#Adversarial Attacks#Detection Benchmarking#Large Language Models#Image-based Detection#Text-based Detection2025년 10월 6일댓글 수 로딩 중
[논문리뷰] On Predictability of Reinforcement Learning Dynamics for Large Language ModelsYuqing Huang이 arXiv에 게시한 'On Predictability of Reinforcement Learning Dynamics for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Parameter Dynamics#Rank-1 Dominance#Linear Dynamics#SVD#Model Acceleration#Predictability2025년 10월 2일댓글 수 로딩 중
[논문리뷰] Infusing Theory of Mind into Socially Intelligent LLM AgentsarXiv에 게시된 'Infusing Theory of Mind into Socially Intelligent LLM Agents' 논문에 대한 자세한 리뷰입니다.#Review#Theory of Mind#Large Language Models#Social Agents#Dialogue Systems#Mental State Modeling#Look-ahead Planning#Supervised Fine-tuning#Sotopia Benchmark2025년 10월 2일댓글 수 로딩 중
[논문리뷰] The Dragon Hatchling: The Missing Link between the Transformer and Models of the BrainarXiv에 게시된 'The Dragon Hatchling: The Missing Link between the Transformer and Models of the Brain' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Brain-Inspired AI#Graph Neural Networks#Hebbian Learning#Scale-Free Networks#Model Interpretability#Transformer Architecture2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Test-Time Policy Adaptation for Enhanced Multi-Turn Interactions with LLMsYao Shu이 arXiv에 게시한 'Test-Time Policy Adaptation for Enhanced Multi-Turn Interactions with LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Multi-turn Interaction#Test-Time Adaptation#Reinforcement Learning from Human Feedback#Policy Optimization#Online Learning#Self-Correction2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Context Is What You Need: The Maximum Effective Context Window for Real World Limits of LLMsnormanpaulsen이 arXiv에 게시한 'Context Is What You Need: The Maximum Effective Context Window for Real World Limits of LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Context Window#Effective Context Window#Model Performance#Hallucination Rates#RAG Systems#Token Limits2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Benefits and Pitfalls of Reinforcement Learning for Language Model Planning: A Theoretical PerspectivearXiv에 게시된 'Benefits and Pitfalls of Reinforcement Learning for Language Model Planning: A Theoretical Perspective' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Planning#Policy Gradient#Q-learning#Supervised Fine-Tuning#Diversity Collapse#Reward Hacking2025년 10월 1일댓글 수 로딩 중
[논문리뷰] Attention as a Compass: Efficient Exploration for Process-Supervised RL in Reasoning ModelsarXiv에 게시된 'Attention as a Compass: Efficient Exploration for Process-Supervised RL in Reasoning Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Process-Supervised RL#Large Language Models#Reasoning Models#Attention Mechanism#Efficient Exploration#Adaptive Sampling#Off-Policy Training2025년 10월 1일댓글 수 로딩 중
[논문리뷰] PromptCoT 2.0: Scaling Prompt Synthesis for Large Language Model ReasoningLingpeng Kong이 arXiv에 게시한 'PromptCoT 2.0: Scaling Prompt Synthesis for Large Language Model Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Prompt Synthesis#Large Language Models#Reasoning#Expectation-Maximization#Self-Play#Supervised Fine-Tuning#Task Generation#Rationale Generation2025년 9월 29일댓글 수 로딩 중
[논문리뷰] MesaTask: Towards Task-Driven Tabletop Scene Generation via 3D Spatial ReasoningWeipeng Zhong이 arXiv에 게시한 'MesaTask: Towards Task-Driven Tabletop Scene Generation via 3D Spatial Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#3D Scene Generation#Robotic Manipulation#Large Language Models#Spatial Reasoning#Dataset#Direct Preference Optimization#Tabletop Scene2025년 9월 29일댓글 수 로딩 중
[논문리뷰] Language Models Can Learn from Verbal Feedback Without Scalar RewardsarXiv에 게시된 'Language Models Can Learn from Verbal Feedback Without Scalar Rewards' 논문에 대한 자세한 리뷰입니다.#Review#Verbal Feedback#Conditional Generation#Large Language Models#Feedback-Conditional Policy#Offline-Online Learning#Reward Hypothesis Bypass2025년 9월 29일댓글 수 로딩 중
[논문리뷰] Fine-tuning Done Right in Model EditingDu Su이 arXiv에 게시한 'Fine-tuning Done Right in Model Editing' 논문에 대한 자세한 리뷰입니다.#Review#Model Editing#Fine-tuning#Large Language Models#Catastrophic Forgetting#Breadth-First Pipeline#Depth-First Pipeline#Localized Tuning#Lifelong Learning2025년 9월 29일댓글 수 로딩 중
[논문리뷰] VCRL: Variance-based Curriculum Reinforcement Learning for Large Language ModelsYuewei Zhang이 arXiv에 게시한 'VCRL: Variance-based Curriculum Reinforcement Learning for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Curriculum Learning#Large Language Models#Mathematical Reasoning#Variance-based Sampling#Replay Learning#Policy Optimization2025년 9월 26일댓글 수 로딩 중
[논문리뷰] TrustJudge: Inconsistencies of LLM-as-a-Judge and How to Alleviate ThemZhuohao Yu이 arXiv에 게시한 'TrustJudge: Inconsistencies of LLM-as-a-Judge and How to Alleviate Them' 논문에 대한 자세한 리뷰입니다.#Review#LLM-as-a-Judge#Evaluation Frameworks#Inconsistency Reduction#Probabilistic Scoring#Transitivity#Information Loss#Perplexity#Large Language Models2025년 9월 26일댓글 수 로딩 중
[논문리뷰] StyleBench: Evaluating thinking styles in Large Language ModelsJavad Lavaei이 arXiv에 게시한 'StyleBench: Evaluating thinking styles in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reasoning Strategies#Prompt Engineering#LLM Evaluation#Benchmark#Thinking Styles#Scaling Laws#Meta-Reasoning2025년 9월 26일댓글 수 로딩 중
[논문리뷰] Interactive Recommendation Agent with Active User CommandsXueyang Feng이 arXiv에 게시한 'Interactive Recommendation Agent with Active User Commands' 논문에 대한 자세한 리뷰입니다.#Review#Interactive Recommendation#Large Language Models#Multi-Agent System#Natural Language Processing#Knowledge Distillation#User Control2025년 9월 26일댓글 수 로딩 중
[논문리뷰] CE-GPPO: Controlling Entropy via Gradient-Preserving Clipping Policy Optimization in Reinforcement LearningWenping Hu이 arXiv에 게시한 'CE-GPPO: Controlling Entropy via Gradient-Preserving Clipping Policy Optimization in Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Policy Optimization#PPO#Entropy Control#Gradient Clipping#Exploration-Exploitation2025년 9월 26일댓글 수 로딩 중
[논문리뷰] Behind RoPE: How Does Causal Mask Encode Positional Information?Yeyun Gong이 arXiv에 게시한 'Behind RoPE: How Does Causal Mask Encode Positional Information?' 논문에 대한 자세한 리뷰입니다.#Review#Transformer Decoder#Causal Mask#Positional Encoding#RoPE#Attention Mechanism#Length Generalization#Large Language Models2025년 9월 26일댓글 수 로딩 중
[논문리뷰] On the Use of Agentic Coding: An Empirical Study of Pull Requests on GitHubHajimu Iida이 arXiv에 게시한 'On the Use of Agentic Coding: An Empirical Study of Pull Requests on GitHub' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Coding#AI Agents#Large Language Models#GitHub Pull Requests#Software Engineering#Empirical Study#Code Generation#Software Development2025년 9월 25일댓글 수 로딩 중
[논문리뷰] LLMs4All: A Review on Large Language Models for Research and Applications in Academic DisciplinesYanfang이 arXiv에 게시한 'LLMs4All: A Review on Large Language Models for Research and Applications in Academic Disciplines' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Generative AI#Academic Disciplines#LLM Applications#Review#Cross-disciplinary Research#Benchmarks2025년 9월 25일댓글 수 로딩 중
[논문리뷰] Reinforcement Learning on Pre-Training DataEvander Yang이 arXiv에 게시한 'Reinforcement Learning on Pre-Training Data' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Pre-training#Large Language Models#Self-supervised Learning#Scaling Laws#Next-segment Reasoning#Reward Modeling2025년 9월 24일댓글 수 로딩 중
[논문리뷰] Large Language Models Discriminate Against Speakers of German DialectsKatharina von der Wense이 arXiv에 게시한 'Large Language Models Discriminate Against Speakers of German Dialects' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Bias#German Dialects#Sociolinguistics#Stereotypes#Implicit Association Test#Decision Making2025년 9월 24일댓글 수 로딩 중
[논문리뷰] Turk-LettuceDetect: A Hallucination Detection Models for Turkish RAG ApplicationsFatma Betül Terzioğlu이 arXiv에 게시한 'Turk-LettuceDetect: A Hallucination Detection Models for Turkish RAG Applications' 논문에 대한 자세한 리뷰입니다.#Review#Hallucination Detection#Retrieval Augmented Generation#Large Language Models#Turkish NLP#Token Classification#ModernBERT#Low-Resource Languages2025년 9월 23일댓글 수 로딩 중
[논문리뷰] SCAN: Self-Denoising Monte Carlo Annotation for Robust Process Reward LearningZhaopeng Tu이 arXiv에 게시한 'SCAN: Self-Denoising Monte Carlo Annotation for Robust Process Reward Learning' 논문에 대한 자세한 리뷰입니다.#Review#Process Reward Models#Monte Carlo Annotation#Noise Denoising#Robust Learning#Self-Supervision#Mathematical Reasoning#Large Language Models2025년 9월 23일댓글 수 로딩 중
[논문리뷰] LIMI: Less is More for AgencyhappyZYM이 arXiv에 게시한 'LIMI: Less is More for Agency' 논문에 대한 자세한 리뷰입니다.#Review#AI Agency#Data Curation#Less Is More#Agentic Intelligence#Foundation Models#Evaluation Benchmark#Efficiency Principle#Large Language Models2025년 9월 23일댓글 수 로딩 중
[논문리뷰] DIWALI - Diversity and Inclusivity aWare cuLture specific Items for India: Dataset and Assessment of LLMs for Cultural Text Adaptation in Indian ContextMaunendra Sankar Desarkar이 arXiv에 게시한 'DIWALI - Diversity and Inclusivity aWare cuLture specific Items for India: Dataset and Assessment of LLMs for Cultural Text Adaptation in Indian Context' 논문에 대한 자세한 리뷰입니다.#Review#Cultural Adaptation#Large Language Models#Indian Culture#Dataset Creation#CSI#Human Evaluation#LLM Evaluation#Cultural Bias2025년 9월 23일댓글 수 로딩 중
[논문리뷰] AuditoryBench++: Can Language Models Understand Auditory Knowledge without Hearing?Jaeho Lee이 arXiv에 게시한 'AuditoryBench++: Can Language Models Understand Auditory Knowledge without Hearing?' 논문에 대한 자세한 리뷰입니다.#Review#Auditory Knowledge#Large Language Models#Multimodal Reasoning#Benchmark#Chain-of-Thought#Auditory Imagination#Text-only Reasoning2025년 9월 23일댓글 수 로딩 중
[논문리뷰] FlowRL: Matching Reward Distributions for LLM ReasoningHengli Li이 arXiv에 게시한 'FlowRL: Matching Reward Distributions for LLM Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Reward Distribution Matching#GFlowNets#Mode Collapse#Diverse Reasoning#Flow-Balanced Optimization2025년 9월 19일댓글 수 로딩 중
[논문리뷰] THOR: Tool-Integrated Hierarchical Optimization via RL for Mathematical ReasoningYicheng Pan이 arXiv에 게시한 'THOR: Tool-Integrated Hierarchical Optimization via RL for Mathematical Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Mathematical Reasoning#Tool-Integrated Reasoning#Reinforcement Learning#Hierarchical Optimization#Self-Correction#Large Language Models#Code Generation2025년 9월 18일댓글 수 로딩 중
[논문리뷰] Hala Technical Report: Building Arabic-Centric Instruction & Translation Models at ScaleBernard Ghanem이 arXiv에 게시한 'Hala Technical Report: Building Arabic-Centric Instruction & Translation Models at Scale' 논문에 대한 자세한 리뷰입니다.#Review#Arabic NLP#Instruction Tuning#Machine Translation#Large Language Models#FP8 Quantization#Data Bootstrapping#Model Merging#Language-Centric AI2025년 9월 18일댓글 수 로딩 중
[논문리뷰] Towards General Agentic Intelligence via Environment ScalingGuangyu Li이 arXiv에 게시한 'Towards General Agentic Intelligence via Environment Scaling' 논문에 대한 자세한 리뷰입니다.#Review#Agentic AI#Environment Scaling#Function Calling#Tool Use#Large Language Models#Synthetic Data Generation#Supervised Fine-tuning2025년 9월 17일댓글 수 로딩 중
[논문리뷰] Multimodal Reasoning for Science: Technical Report and 1st Place Solution to the ICML 2025 SeePhys ChallengeWentao Zhang이 arXiv에 게시한 'Multimodal Reasoning for Science: Technical Report and 1st Place Solution to the ICML 2025 SeePhys Challenge' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Reasoning#Science AI#Caption-assisted Reasoning#SeePhys Challenge#Large Language Models#Visual Question Answering#Physics Problems#Cross-modal Alignment2025년 9월 17일댓글 수 로딩 중
[논문리뷰] UI-S1: Advancing GUI Automation via Semi-online Reinforcement LearningYongliang Shen이 arXiv에 게시한 'UI-S1: Advancing GUI Automation via Semi-online Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#GUI Automation#Reinforcement Learning#Semi-online RL#Offline RL#Online RL#Patch Module#Multi-turn Interaction#Large Language Models2025년 9월 16일댓글 수 로딩 중
[논문리뷰] EthicsMH: A Pilot Benchmark for Ethical Reasoning in Mental Health AIUVSKKR이 arXiv에 게시한 'EthicsMH: A Pilot Benchmark for Ethical Reasoning in Mental Health AI' 논문에 대한 자세한 리뷰입니다.#Review#Ethical Reasoning#Mental Health AI#Benchmark Dataset#Large Language Models#AI Ethics#Clinical Decision Support#Human-in-the-loop2025년 9월 16일댓글 수 로딩 중
[논문리뷰] The Illusion of Diminishing Returns: Measuring Long Horizon Execution in LLMsJonas Geiping이 arXiv에 게시한 'The Illusion of Diminishing Returns: Measuring Long Horizon Execution in LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Long-Horizon Tasks#Execution Capability#Scaling Laws#Self-Conditioning#Thinking Models#Agentic AI2025년 9월 15일댓글 수 로딩 중
[논문리뷰] QuantAgent: Price-Driven Multi-Agent LLMs for High-Frequency TradingChenyu You이 arXiv에 게시한 'QuantAgent: Price-Driven Multi-Agent LLMs for High-Frequency Trading' 논문에 대한 자세한 리뷰입니다.#Review#High-Frequency Trading#Multi-Agent Systems#Large Language Models#Technical Analysis#Algorithmic Trading#Financial Reasoning#Price-Driven Signals2025년 9월 15일댓글 수 로딩 중
[논문리뷰] SimpleQA Verified: A Reliable Factuality Benchmark to Measure Parametric KnowledgeDipanjan Das이 arXiv에 게시한 'SimpleQA Verified: A Reliable Factuality Benchmark to Measure Parametric Knowledge' 논문에 대한 자세한 리뷰입니다.#Review#LLM Factuality#Parametric Knowledge#Benchmark#Question Answering#Data Curation#Evaluation Metrics#Hallucination Mitigation#Large Language Models2025년 9월 10일댓글 수 로딩 중
[논문리뷰] Parallel-R1: Towards Parallel Thinking via Reinforcement LearningXinyu Yang이 arXiv에 게시한 'Parallel-R1: Towards Parallel Thinking via Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Parallel Thinking#Reinforcement Learning#Mathematical Reasoning#Progressive Curriculum#Reward Design#Exploration Scaffold2025년 9월 10일댓글 수 로딩 중
[논문리뷰] Language Self-Play For Data-Free TrainingVijai Mohan이 arXiv에 게시한 'Language Self-Play For Data-Free Training' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reinforcement Learning#Self-Play#Data-Free Training#Instruction Following#Adversarial Training#Reward Modeling2025년 9월 10일댓글 수 로딩 중
[논문리뷰] Test-Time Scaling in Reasoning Models Is Not Effective for Knowledge-Intensive Tasks YetSee-Kiong Ng이 arXiv에 게시한 'Test-Time Scaling in Reasoning Models Is Not Effective for Knowledge-Intensive Tasks Yet' 논문에 대한 자세한 리뷰입니다.#Review#Test-Time Scaling#Reasoning Models#Knowledge-Intensive Tasks#Hallucinations#Factual Accuracy#Chain-of-Thought#Large Language Models2025년 9월 9일댓글 수 로딩 중
[논문리뷰] Revolutionizing Reinforcement Learning Framework for Diffusion Large Language ModelsKe Shen이 arXiv에 게시한 'Revolutionizing Reinforcement Learning Framework for Diffusion Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Language Models#Reinforcement Learning#Trajectory-aware RL#Value Model#Masked Diffusion Models#Large Language Models#Reasoning Tasks#Code Generation2025년 9월 9일댓글 수 로딩 중
[논문리뷰] Symbolic Graphics Programming with Large Language ModelsKaipeng Zhang이 arXiv에 게시한 'Symbolic Graphics Programming with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Symbolic Graphics Programming#Large Language Models#Reinforcement Learning#SVG Generation#Text-to-Image Synthesis#Cross-Modal Alignment#Program Synthesis2025년 9월 8일댓글 수 로딩 중
[논문리뷰] Behavioral Fingerprinting of Large Language ModelsXing Li이 arXiv에 게시한 'Behavioral Fingerprinting of Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Behavioral Evaluation#Model Alignment#Sycophancy#World Model Brittleness#Metacognition#Personality Profiling2025년 9월 8일댓글 수 로딩 중
[논문리뷰] Drivel-ology: Challenging LLMs with Interpreting Nonsense with DepthChi-Li Chen이 arXiv에 게시한 'Drivel-ology: Challenging LLMs with Interpreting Nonsense with Depth' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Pragmatic Understanding#Drivelology#Benchmark Dataset#Multilingual NLP#Semantic Reasoning#Contextual Inference2025년 9월 5일댓글 수 로딩 중
[논문리뷰] Open Data Synthesis For Deep ResearchZheng Liu이 arXiv에 게시한 'Open Data Synthesis For Deep Research' 논문에 대한 자세한 리뷰입니다.#Review#Data Synthesis#Deep Research#Hierarchical Constraint Satisfaction Problems#Large Language Models#Agentic AI#Reinforcement Learning#Question Answering2025년 9월 4일댓글 수 로딩 중
[논문리뷰] VerlTool: Towards Holistic Agentic Reinforcement Learning with Tool UseZhiheng Lyu이 arXiv에 게시한 'VerlTool: Towards Holistic Agentic Reinforcement Learning with Tool Use' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Reinforcement Learning#Tool Use#Large Language Models#Reinforcement Learning from Verifiable Rewards (RLVR)#Asynchronous Execution#Multi-modal AI#Framework2025년 9월 3일댓글 수 로딩 중
[논문리뷰] The Landscape of Agentic Reinforcement Learning for LLMs: A SurveyHejia Geng이 arXiv에 게시한 'The Landscape of Agentic Reinforcement Learning for LLMs: A Survey' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Reinforcement Learning#Large Language Models#LLM Agents#Sequential Decision Making#Policy Optimization#Tool Use#Dynamic Environments#Autonomous AI2025년 9월 3일댓글 수 로딩 중
[논문리뷰] SimpleTIR: End-to-End Reinforcement Learning for Multi-Turn Tool-Integrated ReasoningQian Liu이 arXiv에 게시한 'SimpleTIR: End-to-End Reinforcement Learning for Multi-Turn Tool-Integrated Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Tool-Integrated Reasoning#Multi-turn Reasoning#Gradient Explosion#Training Stability#Trajectory Filtering#Zero RL2025년 9월 3일댓글 수 로딩 중
[논문리뷰] SQL-of-Thought: Multi-agentic Text-to-SQL with Guided Error Correctionbindsch이 arXiv에 게시한 'SQL-of-Thought: Multi-agentic Text-to-SQL with Guided Error Correction' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-SQL#Multi-agent Systems#Chain-of-Thought#Error Correction#Large Language Models#Query Planning#Database Interaction2025년 9월 3일댓글 수 로딩 중
[논문리뷰] OpenVision 2: A Family of Generative Pretrained Visual Encoders for Multimodal LearningZirui Wang이 arXiv에 게시한 'OpenVision 2: A Family of Generative Pretrained Visual Encoders for Multimodal Learning' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Learning#Vision Encoder#Generative Pretraining#Captioning Loss#Training Efficiency#Image-Text Models#Large Language Models2025년 9월 3일댓글 수 로딩 중
[논문리뷰] Implicit Actor Critic Coupling via a Supervised Learning Framework for RLVRLu Wang이 arXiv에 게시한 'Implicit Actor Critic Coupling via a Supervised Learning Framework for RLVR' 논문에 대한 자세한 리뷰입니다.#Review#RLVR#Large Language Models#Actor-Critic#Supervised Learning#Mathematical Reasoning#Policy Optimization#Cross-Entropy Loss2025년 9월 3일댓글 수 로딩 중
[논문리뷰] Fantastic Pretraining Optimizers and Where to Find ThemPercy Liang이 arXiv에 게시한 'Fantastic Pretraining Optimizers and Where to Find Them' 논문에 대한 자세한 리뷰입니다.#Review#Deep Learning Optimizers#Large Language Models#Hyperparameter Tuning#Pretraining Speedup#Scaling Laws#AdamW#Matrix-based Optimizers#Data-to-Model Ratio2025년 9월 3일댓글 수 로딩 중
[논문리뷰] AMBEDKAR-A Multi-level Bias Elimination through a Decoding Approach with Knowledge Augmentation for Robust Constitutional Alignment of Language ModelsRahul Karthikeyan이 arXiv에 게시한 'AMBEDKAR-A Multi-level Bias Elimination through a Decoding Approach with Knowledge Augmentation for Robust Constitutional Alignment of Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Bias Mitigation#Large Language Models#Speculative Decoding#Constitutional AI#Fairness#Inference-Time Control#Indian Sociocultural Context2025년 9월 3일댓글 수 로딩 중
[논문리뷰] Think in Games: Learning to Reason in Games via Reinforcement Learning with Large Language ModelsYifan Lu이 arXiv에 게시한 'Think in Games: Learning to Reason in Games via Reinforcement Learning with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reinforcement Learning#Game AI#Procedural Knowledge#Declarative Knowledge#Explainable AI#Strategic Decision-Making2025년 9월 1일댓글 수 로딩 중
[논문리뷰] TCIA: A Task-Centric Instruction Augmentation Method for Instruction FinetuningSimin Ma이 arXiv에 게시한 'TCIA: A Task-Centric Instruction Augmentation Method for Instruction Finetuning' 논문에 대한 자세한 리뷰입니다.#Review#Instruction Augmentation#Fine-tuning#Large Language Models#Task-Centric#Data Diversity#Task Alignment#Breadth-First Search#Constraint Generation2025년 8월 29일댓글 수 로딩 중
[논문리뷰] Provable Benefits of In-Tool Learning for Large Language ModelsVivien Cabannes이 arXiv에 게시한 'Provable Benefits of In-Tool Learning for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#In-Tool Learning#In-Weight Learning#Factual Recall#Retrieval-Augmented Generation#Scaling Laws#Parameter Efficiency#Catastrophic Forgetting2025년 8월 29일댓글 수 로딩 중
[논문리뷰] Predicting the Order of Upcoming Tokens Improves Language ModelingAlham Fikri Aji이 arXiv에 게시한 'Predicting the Order of Upcoming Tokens Improves Language Modeling' 논문에 대한 자세한 리뷰입니다.#Review#Language Modeling#Next-Token Prediction#Multi-Token Prediction#Token Order Prediction#Auxiliary Objective#Learning-to-Rank#Transformer#Large Language Models2025년 8월 28일댓글 수 로딩 중
[논문리뷰] AudioStory: Generating Long-Form Narrative Audio with Large Language ModelsYixiao Ge이 arXiv에 게시한 'AudioStory: Generating Long-Form Narrative Audio with Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Audio#Long-Form Audio Generation#Large Language Models#Narrative Reasoning#Diffusion Models#Multimodal AI#Progressive Training2025년 8월 28일댓글 수 로딩 중
[논문리뷰] Unraveling the cognitive patterns of Large Language Models through module communitiesJianxi Gao이 arXiv에 게시한 'Unraveling the cognitive patterns of Large Language Models through module communities' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Network Community Structure#Cognitive Skills#AI Interpretability#Module Communities#Fine-tuning#Neural Plasticity2025년 8월 27일댓글 수 로딩 중
[논문리뷰] TreePO: Bridging the Gap of Policy Optimization and Efficacy and Inference Efficiency with Heuristic Tree-based ModelingZhoufutu Wen이 arXiv에 게시한 'TreePO: Bridging the Gap of Policy Optimization and Efficacy and Inference Efficiency with Heuristic Tree-based Modeling' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Policy Optimization#Large Language Models#Inference Efficiency#Tree Search#Segment-level Decoding#Advantage Estimation#Reasoning2025년 8월 27일댓글 수 로딩 중
[논문리뷰] QueryBandits for Hallucination Mitigation: Exploiting Semantic Features for No-Regret RewritingManuela Veloso이 arXiv에 게시한 'QueryBandits for Hallucination Mitigation: Exploiting Semantic Features for No-Regret Rewriting' 논문에 대한 자세한 리뷰입니다.#Review#Hallucination Mitigation#Large Language Models#Contextual Bandits#Query Rewriting#Semantic Features#No-Regret Learning2025년 8월 27일댓글 수 로딩 중
[논문리뷰] Optimal Sparsity of Mixture-of-Experts Language Models for Reasoning TasksDaisuke Nohara이 arXiv에 게시한 'Optimal Sparsity of Mixture-of-Experts Language Models for Reasoning Tasks' 논문에 대한 자세한 리뷰입니다.#Review#Mixture-of-Experts (MoE)#Sparsity#Scaling Laws#Reasoning Tasks#Memorization#Large Language Models#Generalization Gap#Top-k Routing2025년 8월 27일댓글 수 로딩 중
[논문리뷰] Demystifying Scientific Problem-Solving in LLMs by Probing Knowledge and ReasoningArman Cohan이 arXiv에 게시한 'Demystifying Scientific Problem-Solving in LLMs by Probing Knowledge and Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Scientific Reasoning#Knowledge Retrieval#Reasoning Probing#Benchmarks#Chain-of-Thought#Fine-tuning2025년 8월 27일댓글 수 로딩 중
[논문리뷰] ClaimGen-CN: A Large-scale Chinese Dataset for Legal Claim GenerationKun Kuang이 arXiv에 게시한 'ClaimGen-CN: A Large-scale Chinese Dataset for Legal Claim Generation' 논문에 대한 자세한 리뷰입니다.#Review#Legal AI#Natural Language Processing#Claim Generation#Chinese Legal Dataset#Factuality#Clarity#Large Language Models#Zero-shot Evaluation2025년 8월 27일댓글 수 로딩 중
[논문리뷰] CMPhysBench: A Benchmark for Evaluating Large Language Models in Condensed Matter PhysicsDongchen Huang이 arXiv에 게시한 'CMPhysBench: A Benchmark for Evaluating Large Language Models in Condensed Matter Physics' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Condensed Matter Physics#Benchmark#Scientific Reasoning#Evaluation Metric#Expression Edit Distance#Problem Solving2025년 8월 27일댓글 수 로딩 중
[논문리뷰] Explain Before You Answer: A Survey on Compositional Visual ReasoningXin Zheng이 arXiv에 게시한 'Explain Before You Answer: A Survey on Compositional Visual Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Compositional Visual Reasoning#Multimodal AI#Vision-Language Models#Large Language Models#Chain-of-Thought#Tool Learning#Agentic AI#Survey2025년 8월 26일댓글 수 로딩 중
[논문리뷰] Breaking the Exploration Bottleneck: Rubric-Scaffolded Reinforcement Learning for General LLM ReasoningJiale Zhao이 arXiv에 게시한 'Breaking the Exploration Bottleneck: Rubric-Scaffolded Reinforcement Learning for General LLM Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Exploration Bottleneck#Instructional Scaffolding#Rubric-based Rewards#General Reasoning#RL with Verifiable Rewards#Policy Optimization2025년 8월 26일댓글 수 로딩 중
[논문리뷰] End-to-End Agentic RAG System Training for Traceable Diagnostic ReasoningPengcheng Qiu이 arXiv에 게시한 'End-to-End Agentic RAG System Training for Traceable Diagnostic Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Agentic RAG#Medical Diagnosis#Reinforcement Learning#Traceable AI#Large Language Models#Clinical Decision Support#Out-of-Distribution Generalization#Reward Design2025년 8월 25일댓글 수 로딩 중
[논문리뷰] Beyond Pass@1: Self-Play with Variational Problem Synthesis Sustains RLVRYing Nian Wu이 arXiv에 게시한 'Beyond Pass@1: Self-Play with Variational Problem Synthesis Sustains RLVR' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Self-Play#Variational Problem Synthesis#Policy Entropy#Pass@k#Reasoning Benchmarks2025년 8월 25일댓글 수 로딩 중
[논문리뷰] Mobile-Agent-v3: Foundamental Agents for GUI AutomationHaowei Liu이 arXiv에 게시한 'Mobile-Agent-v3: Foundamental Agents for GUI Automation' 논문에 대한 자세한 리뷰입니다.#Review#GUI Automation#Multimodal Agents#Foundational Models#Reinforcement Learning#Large Language Models#Cross-Platform#Self-Supervised Learning2025년 8월 22일댓글 수 로딩 중
[논문리뷰] Fin-PRM: A Domain-Specialized Process Reward Model for Financial Reasoning in Large Language ModelsLifan Guo이 arXiv에 게시한 'Fin-PRM: A Domain-Specialized Process Reward Model for Financial Reasoning in Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Process Reward Models#Financial Reasoning#Domain Specialization#RLHF#Best-of-N Selection#Data Curation2025년 8월 22일댓글 수 로딩 중
[논문리뷰] Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMsHaobo Xu이 arXiv에 게시한 'Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion LLMs#Post-training Quantization (PTQ)#Model Compression#Activation Outliers#Quantization Methods#Efficient Deployment#Large Language Models2025년 8월 21일댓글 수 로딩 중
[논문리뷰] On-Policy RL Meets Off-Policy Experts: Harmonizing Supervised Fine-Tuning and Reinforcement Learning via Dynamic WeightingGuoyin Wang이 arXiv에 게시한 'On-Policy RL Meets Off-Policy Experts: Harmonizing Supervised Fine-Tuning and Reinforcement Learning via Dynamic Weighting' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reinforcement Learning#Supervised Fine-Tuning#On-Policy RL#Off-Policy Experts#Dynamic Weighting#LLM Alignment#Reasoning2025년 8월 21일댓글 수 로딩 중
[논문리뷰] MCP-Universe: Benchmarking Large Language Models with Real-World Model Context Protocol ServersPrathyusha Jwalapuram이 arXiv에 게시한 'MCP-Universe: Benchmarking Large Language Models with Real-World Model Context Protocol Servers' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Benchmarking#Model Context Protocol#Tool Use#Real-World Applications#Agent Evaluation#Long Context#Unknown Tools2025년 8월 21일댓글 수 로딩 중
[논문리뷰] From AI for Science to Agentic Science: A Survey on Autonomous Scientific Discoveryzijieqiu이 arXiv에 게시한 'From AI for Science to Agentic Science: A Survey on Autonomous Scientific Discovery' 논문에 대한 자세한 리뷰입니다.#Review#Agentic AI#Autonomous Scientific Discovery#AI for Science#Large Language Models#Multi-agent Systems#Scientific Workflow Automation#Natural Sciences2025년 8월 21일댓글 수 로딩 중
[논문리뷰] Prompt Orchestration Markup LanguageYuqing Yang이 arXiv에 게시한 'Prompt Orchestration Markup Language' 논문에 대한 자세한 리뷰입니다.#Review#Prompt Engineering#Large Language Models#Markup Language#Structured Prompting#IDE Support#Multimodal Data#Styling System#Development Toolkit2025년 8월 20일댓글 수 로딩 중
[논문리뷰] Beyond Human Judgment: A Bayesian Evaluation of LLMs' Moral Values UnderstandingAlina Landowska이 arXiv에 게시한 'Beyond Human Judgment: A Bayesian Evaluation of LLMs' Moral Values Understanding' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Moral Reasoning#Bayesian Evaluation#Uncertainty Quantification#Natural Language Processing#Soft Labels2025년 8월 20일댓글 수 로딩 중
[논문리뷰] Speed Always Wins: A Survey on Efficient Architectures for Large Language ModelsJusen Du이 arXiv에 게시한 'Speed Always Wins: A Survey on Efficient Architectures for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Efficient Architectures#Transformer Optimization#Linear Attention#State Space Models#Mixture-of-Experts#Sparse Attention#Diffusion LLMs2025년 8월 19일댓글 수 로딩 중
[논문리뷰] Reinforcement Learning with Rubric AnchorsHaokai Xu이 arXiv에 게시한 'Reinforcement Learning with Rubric Anchors' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Rubric-based Reward#RLVR Extension#Human-centric AI#Controllable Generation#Reward Hacking Mitigation2025년 8월 19일댓글 수 로딩 중
[논문리뷰] SSRL: Self-Search Reinforcement LearningYanxu Chen이 arXiv에 게시한 'SSRL: Self-Search Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Self-Search#Sim-to-Real Transfer#Agentic AI#Knowledge Retrieval#Reward Modeling2025년 8월 18일댓글 수 로딩 중
[논문리뷰] Pass@k Training for Adaptively Balancing Exploration and Exploitation of Large Reasoning ModelsQinghao Ye이 arXiv에 게시한 'Pass@k Training for Adaptively Balancing Exploration and Exploitation of Large Reasoning Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Exploration-Exploitation#Reward Design#Reasoning Tasks#Pass@k#Policy Optimization2025년 8월 15일댓글 수 로딩 중
[논문리뷰] Mol-R1: Towards Explicit Long-CoT Reasoning in Molecule DiscoveryDi Zhang이 arXiv에 게시한 'Mol-R1: Towards Explicit Long-CoT Reasoning in Molecule Discovery' 논문에 대한 자세한 리뷰입니다.#Review#Molecule Discovery#Chain-of-Thought#Large Language Models#Reinforcement Learning#Supervised Fine-tuning#Molecular Generation#Explainable AI2025년 8월 14일댓글 수 로딩 중
[논문리뷰] Cooper: Co-Optimizing Policy and Reward Models in Reinforcement Learning for Large Language ModelsGuiyang Hou이 arXiv에 게시한 'Cooper: Co-Optimizing Policy and Reward Models in Reinforcement Learning for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Reward Model#Policy Optimization#Reward Hacking#Hybrid Annotation#Mathematical Reasoning#Verifiable Rewards2025년 8월 14일댓글 수 로딩 중
[논문리뷰] Can LLM-Generated Textual Explanations Enhance Model Classification Performance? An Empirical StudyGjergji Kasneci이 arXiv에 게시한 'Can LLM-Generated Textual Explanations Enhance Model Classification Performance? An Empirical Study' 논문에 대한 자세한 리뷰입니다.#Review#Explainable NLP#Natural Language Explanations#Large Language Models#Pre-trained Language Models#Natural Language Inference#Model Performance Enhancement#Text Generation2025년 8월 14일댓글 수 로딩 중
[논문리뷰] AMFT: Aligning LLM Reasoners by Meta-Learning the Optimal Imitation-Exploration BalanceYong Li이 arXiv에 게시한 'AMFT: Aligning LLM Reasoners by Meta-Learning the Optimal Imitation-Exploration Balance' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Fine-tuning#Reinforcement Learning#Meta-learning#Adaptive Control#Imitation Learning#Exploration#Reasoning2025년 8월 14일댓글 수 로딩 중
[논문리뷰] Train Long, Think Short: Curriculum Learning for Efficient ReasoningMarzyeh Ghassemi이 arXiv에 게시한 'Train Long, Think Short: Curriculum Learning for Efficient Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Curriculum Learning#Reinforcement Learning#Large Language Models#Reasoning Efficiency#Token Budget Control#Group Relative Policy Optimization#Chain-of-Thought2025년 8월 13일댓글 수 로딩 중
[논문리뷰] Democratizing Diplomacy: A Harness for Evaluating Any Large Language Model on Full-Press DiplomacyElizabeth Karpinski이 arXiv에 게시한 'Democratizing Diplomacy: A Harness for Evaluating Any Large Language Model on Full-Press Diplomacy' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Diplomacy Game#Multi-agent Systems#Strategic Reasoning#LLM Evaluation#Prompt Engineering#Behavioral Analysis#Game AI2025년 8월 13일댓글 수 로딩 중
[논문리뷰] ReasonRank: Empowering Passage Ranking with Strong Reasoning AbilityYuchen Li이 arXiv에 게시한 'ReasonRank: Empowering Passage Ranking with Strong Reasoning Ability' 논문에 대한 자세한 리뷰입니다.#Review#Passage Ranking#Reasoning Models#Large Language Models#Data Synthesis#Reinforcement Learning#Listwise Reranking#Information Retrieval2025년 8월 12일댓글 수 로딩 중
[논문리뷰] Part I: Tricks or Traps? A Deep Dive into RL for LLM ReasoningJiaheng Liu이 arXiv에 게시한 'Part I: Tricks or Traps? A Deep Dive into RL for LLM Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#LLM Reasoning#Policy Optimization#Normalization#Clipping#Loss Aggregation#Overlong Filtering2025년 8월 12일댓글 수 로딩 중
[논문리뷰] Visual Document Understanding and Question Answering: A Multi-Agent Collaboration Framework with Test-Time ScalingRuolin Shen이 arXiv에 게시한 'Visual Document Understanding and Question Answering: A Multi-Agent Collaboration Framework with Test-Time Scaling' 논문에 대한 자세한 리뷰입니다.#Review#Visual Document Understanding#Visual Question Answering#Multi-Agent System#Test-Time Scaling#Self-Correction#Mixed Reward Modeling#Large Language Models2025년 8월 8일댓글 수 로딩 중
[논문리뷰] R-Zero: Self-Evolving Reasoning LLM from Zero DataZongxia Li이 arXiv에 게시한 'R-Zero: Self-Evolving Reasoning LLM from Zero Data' 논문에 대한 자세한 리뷰입니다.#Review#Self-Evolving LLM#Reinforcement Learning#Curriculum Learning#Reasoning#Large Language Models#Self-Play#Zero-Data Training2025년 8월 8일댓글 수 로딩 중
[논문리뷰] PRvL: Quantifying the Capabilities and Risks of Large Language Models for PII RedactionPrajit Das이 arXiv에 게시한 'PRvL: Quantifying the Capabilities and Risks of Large Language Models for PII Redaction' 논문에 대한 자세한 리뷰입니다.#Review#PII Redaction#Large Language Models#Instruction Tuning#Retrieval-Augmented Generation#Privacy Preservation#Model Evaluation#Cross-Domain Generalization#Open-Source LLMs2025년 8월 8일댓글 수 로딩 중
[논문리뷰] I2CR: Intra- and Inter-modal Collaborative Reflections for Multimodal Entity LinkingChao Wang이 arXiv에 게시한 'I2CR: Intra- and Inter-modal Collaborative Reflections for Multimodal Entity Linking' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Entity Linking#Large Language Models#Collaborative Reflection#Iterative Reasoning#Visual Information#Text-centric2025년 8월 8일댓글 수 로딩 중
[논문리뷰] Hop, Skip, and Overthink: Diagnosing Why Reasoning Models Fumble during Multi-Hop AnalysisReshmi Ghosh이 arXiv에 게시한 'Hop, Skip, and Overthink: Diagnosing Why Reasoning Models Fumble during Multi-Hop Analysis' 논문에 대한 자세한 리뷰입니다.#Review#Multi-hop Question Answering#Large Language Models#Reasoning Errors#Error Taxonomy#Human Evaluation#Automated Evaluation#Overthinking2025년 8월 8일댓글 수 로딩 중
[논문리뷰] Evaluating, Synthesizing, and Enhancing for Customer Support ConversationFeng Chen이 arXiv에 게시한 'Evaluating, Synthesizing, and Enhancing for Customer Support Conversation' 논문에 대한 자세한 리뷰입니다.#Review#Customer Support#Dialogue Generation#Large Language Models#Role-Playing#COPC Framework#Synthetic Data#Strategy Prediction#Empathetic AI2025년 8월 8일댓글 수 로딩 중
[논문리뷰] Are Today's LLMs Ready to Explain Well-Being Concepts?Huan Liu이 arXiv에 게시한 'Are Today's LLMs Ready to Explain Well-Being Concepts?' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Well-being Concepts#LLM Evaluation#Principle-Guided Evaluation#LLM-as-a-Judge#Supervised Fine-Tuning (SFT)#Direct Preference Optimization (DPO)#Explanation Generation2025년 8월 8일댓글 수 로딩 중
[논문리뷰] Training Long-Context, Multi-Turn Software Engineering Agents with Reinforcement LearningMaksim Nekrashevich이 arXiv에 게시한 'Training Long-Context, Multi-Turn Software Engineering Agents with Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#Software Engineering#Multi-Turn Interaction#Long Context#DAPO#Autonomous Agents#SWE-BENCH2025년 8월 7일댓글 수 로딩 중
[논문리뷰] Sotopia-RL: Reward Design for Social IntelligenceKeyang Xuan이 arXiv에 게시한 'Sotopia-RL: Reward Design for Social Intelligence' 논문에 대한 자세한 리뷰입니다.#Review#Social Intelligence#Reinforcement Learning#Reward Design#Large Language Models#Utterance-level Rewards#Multi-dimensional Rewards#Partial Observability#SOTOPIA2025년 8월 7일댓글 수 로딩 중
[논문리뷰] Sculptor: Empowering LLMs with Cognitive Agency via Active Context ManagementYunxin Liu이 arXiv에 게시한 'Sculptor: Empowering LLMs with Cognitive Agency via Active Context Management' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Active Context Management#Proactive Interference#Tool Augmentation#Working Memory#Context Curation#Long Context2025년 8월 7일댓글 수 로딩 중
[논문리뷰] Reasoning Language Models for Root Cause Analysis in 5G Wireless NetworksHaozhe Zhang이 arXiv에 게시한 'Reasoning Language Models for Root Cause Analysis in 5G Wireless Networks' 논문에 대한 자세한 리뷰입니다.#Review#Root Cause Analysis#Large Language Models#5G Wireless Networks#Supervised Fine-Tuning#Reinforcement Learning#Chain-of-Thought#TeleLogs Dataset2025년 8월 7일댓글 수 로딩 중
[논문리뷰] RL-PLUS: Countering Capability Boundary Collapse of LLMs in Reinforcement Learning with Hybrid-policy OptimizationKechi Zhang이 arXiv에 게시한 'RL-PLUS: Countering Capability Boundary Collapse of LLMs in Reinforcement Learning with Hybrid-policy Optimization' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#Reinforcement Learning#Capability Collapse#Hybrid Policy Optimization#Multiple Importance Sampling#Exploration#Math Reasoning#Out-of-Distribution2025년 8월 7일댓글 수 로딩 중
[논문리뷰] EVOC2RUST: A Skeleton-guided Framework for Project-Level C-to-Rust TranslationDong Chen이 arXiv에 게시한 'EVOC2RUST: A Skeleton-guided Framework for Project-Level C-to-Rust Translation' 논문에 대한 자세한 리뷰입니다.#Review#C-to-Rust Conversion#Project-Level Translation#Large Language Models#Code Synthesis#Memory Safety#Software Migration#Hybrid Translation2025년 8월 7일댓글 수 로딩 중
[논문리뷰] Agent Lightning: Train ANY AI Agents with Reinforcement LearningZilong Wang이 arXiv에 게시한 'Agent Lightning: Train ANY AI Agents with Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Large Language Models#AI Agents#Framework#Markov Decision Process#Hierarchical RL#Training-Agent Disaggregation#Observability2025년 8월 7일댓글 수 로딩 중
[논문리뷰] CRINN: Contrastive Reinforcement Learning for Approximate Nearest Neighbor SearchJiwei Li이 arXiv에 게시한 'CRINN: Contrastive Reinforcement Learning for Approximate Nearest Neighbor Search' 논문에 대한 자세한 리뷰입니다.#Review#Approximate Nearest Neighbor Search#Reinforcement Learning#Large Language Models#Code Optimization#HNSW#Retrieval-Augmented Generation#Contrastive Learning2025년 8월 6일댓글 수 로딩 중
[논문리뷰] Beyond the Trade-off: Self-Supervised Reinforcement Learning for Reasoning Models' Instruction FollowingJiaqing Liang이 arXiv에 게시한 'Beyond the Trade-off: Self-Supervised Reinforcement Learning for Reasoning Models' Instruction Following' 논문에 대한 자세한 리뷰입니다.#Review#Self-Supervised RL#Instruction Following#Reasoning Models#Large Language Models#Reward Modeling#Curriculum Learning2025년 8월 5일댓글 수 로딩 중
[논문리뷰] AgentTTS: Large Language Model Agent for Test-time Compute-optimal Scaling Strategy in Complex TasksZhiwei Zhang이 arXiv에 게시한 'AgentTTS: Large Language Model Agent for Test-time Compute-optimal Scaling Strategy in Complex Tasks' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#LLM Agents#Test-time Scaling#Compute Optimization#Multi-stage Tasks#Resource Allocation#Search Efficiency2025년 8월 5일댓글 수 로딩 중
[논문리뷰] SWE-Debate: Competitive Multi-Agent Debate for Software Issue ResolutionHeng Lian이 arXiv에 게시한 'SWE-Debate: Competitive Multi-Agent Debate for Software Issue Resolution' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent System#Software Engineering#Fault Localization#Issue Resolution#Large Language Models#Competitive Debate#Graph Traversal2025년 8월 4일댓글 수 로딩 중
[논문리뷰] Seed-Prover: Deep and Broad Reasoning for Automated Theorem ProvingZhicheng Jiang이 arXiv에 게시한 'Seed-Prover: Deep and Broad Reasoning for Automated Theorem Proving' 논문에 대한 자세한 리뷰입니다.#Review#Automated Theorem Proving#Large Language Models#Formal Verification#Reinforcement Learning#Lean#Geometry Reasoning#Chain-of-Thought#Lemma-Style Proving2025년 8월 2일댓글 수 로딩 중