[논문리뷰] Online Experiential Learning for Language ModelsarXiv에 게시된 'Online Experiential Learning for Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Online Experiential Learning (OEL)#Context Distillation#Language Models#Reward-Free Learning#Catastrophic Forgetting#Token Efficiency#On-Policy Learning2026년 3월 17일댓글 수 로딩 중
[논문리뷰] Efficient Continual Learning in Language Models via Thalamically Routed Cortical ColumnsAfshin Khadangi이 arXiv에 게시한 'Efficient Continual Learning in Language Models via Thalamically Routed Cortical Columns' 논문에 대한 자세한 리뷰입니다.#Review#Continual Learning#Language Models#Sparse Routing#Cortical Columns#Thalamic Routing#Catastrophic Forgetting#Stability-Plasticity2026년 2월 26일댓글 수 로딩 중
[논문리뷰] VecGlypher: Unified Vector Glyph Generation with Language ModelsarXiv에 게시된 'VecGlypher: Unified Vector Glyph Generation with Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Vector Graphics#Glyph Generation#Language Models#Multimodal AI#SVG#Font Design#Text-to-Vector#Image-to-Vector2026년 2월 25일댓글 수 로딩 중
[논문리뷰] Nacrith: Neural Lossless Compression via Ensemble Context Modeling and High-Precision CDF Codingrobtacconelli이 arXiv에 게시한 'Nacrith: Neural Lossless Compression via Ensemble Context Modeling and High-Precision CDF Coding' 논문에 대한 자세한 리뷰입니다.#Review#Lossless Compression#Neural Compression#Language Models#Arithmetic Coding#Context Mixing#Ensemble Prediction#CDF Quantization#GPU Acceleration2026년 2월 23일댓글 수 로딩 중
[논문리뷰] Prescriptive Scaling Reveals the Evolution of Language Model CapabilitiesSham Kakade이 arXiv에 게시한 'Prescriptive Scaling Reveals the Evolution of Language Model Capabilities' 논문에 대한 자세한 리뷰입니다.#Review#Prescriptive Scaling#Language Models#Capability Boundaries#Quantile Regression#Scaling Laws#Temporal Stability#I-Optimal Design#Benchmark Saturation2026년 2월 17일댓글 수 로딩 중
[논문리뷰] Experiential Reinforcement LearningarXiv에 게시된 'Experiential Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Language Models#Self-Reflection#Experiential Learning#Policy Optimization#Distillation#Agentic Reasoning2026년 2월 16일댓글 수 로딩 중
[논문리뷰] Self-Improving Multilingual Long Reasoning via Translation-Reasoning Integrated TrainingLiqian Huang이 arXiv에 게시한 'Self-Improving Multilingual Long Reasoning via Translation-Reasoning Integrated Training' 논문에 대한 자세한 리뷰입니다.#Review#Multilingual Reasoning#Reinforcement Learning#Machine Translation#Question Understanding#Self-Improvement#Language Models#Cross-Lingual Alignment2026년 2월 8일댓글 수 로딩 중
[논문리뷰] Linear representations in language models can change dramatically over a conversationarXiv에 게시된 'Linear representations in language models can change dramatically over a conversation' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Representation Analysis#Interpretability#In-Context Learning#Representation Dynamics#Factuality#Conversational AI#Activation Steering2026년 1월 28일댓글 수 로딩 중
[논문리뷰] Qwen3-TTS Technical ReportarXiv에 게시된 'Qwen3-TTS Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#Text-to-Speech (TTS)#Multilingual#Voice Cloning#Controllable Speech#Streaming#Speech Tokenization#Language Models#Low-latency2026년 1월 22일댓글 수 로딩 중
[논문리뷰] The Assistant Axis: Situating and Stabilizing the Default Persona of Language ModelsJack Lindsey이 arXiv에 게시한 'The Assistant Axis: Situating and Stabilizing the Default Persona of Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Persona Control#Activation Steering#Persona Drift#Alignment#Post-training#Interpretability#Safety2026년 1월 19일댓글 수 로딩 중
[논문리뷰] Fast-weight Product Key MemoryarXiv에 게시된 'Fast-weight Product Key Memory' 논문에 대한 자세한 리뷰입니다.#Review#Fast-weight Memory#Product Key Memory#Episodic Memory#Language Models#Long-Context Modeling#Memory Augmented Networks#Continual Learning2026년 1월 4일댓글 수 로딩 중
[논문리뷰] On the Role of Discreteness in Diffusion LLMsarXiv에 게시된 'On the Role of Discreteness in Diffusion LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Language Models#Discrete Text#Continuous Diffusion#Text Generation#Data Augmentation#Parallel Decoding#Structural Dependency2026년 1월 1일댓글 수 로딩 중
[논문리뷰] Scaling Open-Ended Reasoning to Predict the FuturearXiv에 게시된 'Scaling Open-Ended Reasoning to Predict the Future' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Forecasting#Open-Ended Reasoning#Reinforcement Learning (RL)#Data Generation#Calibration#Retrieval-Augmented Generation (RAG)#Future Prediction2025년 12월 31일댓글 수 로딩 중
[논문리뷰] An Information Theoretic Perspective on Agentic System DesignarXiv에 게시된 'An Information Theoretic Perspective on Agentic System Design' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Systems#Language Models#Mutual Information#Rate-Distortion Theory#Compute Efficiency#Scaling Laws#Compressor-Predictor Architecture#On-device AI2025년 12월 29일댓글 수 로딩 중
[논문리뷰] Physics of Language Models: Part 4.1, Architecture Design and the Magic of Canon LayersarXiv에 게시된 'Physics of Language Models: Part 4.1, Architecture Design and the Magic of Canon Layers' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Transformer Architecture#Canon Layers#Synthetic Pretraining#Reasoning Depth#Linear Attention#State-Space Models#NoPE2025년 12월 21일댓글 수 로딩 중
[논문리뷰] Scaling Behavior of Discrete Diffusion Language ModelsarXiv에 게시된 'Scaling Behavior of Discrete Diffusion Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Discrete Diffusion Models#Scaling Laws#Language Models#Masked Diffusion#Uniform Diffusion#Hyperparameter Tuning#Compute-Optimal Training2025년 12월 14일댓글 수 로딩 중
[논문리뷰] SkillFactory: Self-Distillation For Learning Cognitive BehaviorsManya Wadhwa이 arXiv에 게시한 'SkillFactory: Self-Distillation For Learning Cognitive Behaviors' 논문에 대한 자세한 리뷰입니다.#Review#Self-Distillation#Cognitive Skills#Reinforcement Learning#Supervised Fine-Tuning#Language Models#Reasoning#Verification#Retrying2025년 12월 3일댓글 수 로딩 중
[논문리뷰] RefineBench: Evaluating Refinement Capability of Language Models via ChecklistsarXiv에 게시된 'RefineBench: Evaluating Refinement Capability of Language Models via Checklists' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Refinement Capability#Self-Refinement#Guided Refinement#Checklist Evaluation#Multi-turn Interaction#Benchmark2025년 11월 30일댓글 수 로딩 중
[논문리뷰] AutoEnv: Automated Environments for Measuring Cross-Environment Agent LearningAlphamasterliu이 arXiv에 게시한 'AutoEnv: Automated Environments for Measuring Cross-Environment Agent Learning' 논문에 대한 자세한 리뷰입니다.#Review#Automated Environment Generation#Cross-Environment Learning#Agent Learning#Language Models#Benchmark#Meta-Learning#Reinforcement Learning#Environment Design Language2025년 11월 24일댓글 수 로딩 중
[논문리뷰] Stemming Hallucination in Language Models Using a Licensing OracleRichard Ackermann이 arXiv에 게시한 'Stemming Hallucination in Language Models Using a Licensing Oracle' 논문에 대한 자세한 리뷰입니다.#Review#Hallucination Mitigation#Language Models#Knowledge Graphs#SHACL Validation#Epistemic Grounding#Retrieval-Augmented Generation#Neuro-symbolic AI2025년 11월 12일댓글 수 로딩 중
[논문리뷰] RLVE: Scaling Up Reinforcement Learning for Language Models with Adaptive Verifiable EnvironmentsShuyue Stella Li이 arXiv에 게시한 'RLVE: Scaling Up Reinforcement Learning for Language Models with Adaptive Verifiable Environments' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Language Models#Adaptive Environments#Verifiable Environments#Procedural Generation#Curriculum Learning#Generalization2025년 11월 10일댓글 수 로딩 중
[논문리뷰] CodeClash: Benchmarking Goal-Oriented Software EngineeringarXiv에 게시된 'CodeClash: Benchmarking Goal-Oriented Software Engineering' 논문에 대한 자세한 리뷰입니다.#Review#Software Engineering Benchmarking#Language Models#AI Agents#Goal-Oriented Development#Competitive Programming#Code Evolution#Strategic Reasoning#Autonomous Systems2025년 11월 9일댓글 수 로딩 중
[논문리뷰] The Era of Agentic Organization: Learning to Organize with Language ModelsXun Wu이 arXiv에 게시한 'The Era of Agentic Organization: Learning to Organize with Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Organization#Asynchronous Thinking#Language Models#Reinforcement Learning#Multi-agent Systems#Reasoning#Task Decomposition#Orchestration2025년 10월 31일댓글 수 로딩 중
[논문리뷰] Critique-RL: Training Language Models for Critiquing through Two-Stage Reinforcement LearningarXiv에 게시된 'Critique-RL: Training Language Models for Critiquing through Two-Stage Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Language Models#Critiquing#Two-Stage Optimization#Actor-Critic#Scalable Oversight#Discriminability#Helpfulness2025년 10월 29일댓글 수 로딩 중
[논문리뷰] ATLAS: Adaptive Transfer Scaling Laws for Multilingual Pretraining, Finetuning, and Decoding the Curse of MultilingualityarXiv에 게시된 'ATLAS: Adaptive Transfer Scaling Laws for Multilingual Pretraining, Finetuning, and Decoding the Curse of Multilinguality' 논문에 대한 자세한 리뷰입니다.#Review#Multilingual LLMs#Scaling Laws#Transfer Learning#Curse of Multilinguality#Pretraining#Finetuning#Language Models#Adaptive Scaling2025년 10월 29일댓글 수 로딩 중
[논문리뷰] Emergence of Linear Truth Encodings in Language ModelsAlberto Bietti이 arXiv에 게시한 'Emergence of Linear Truth Encodings in Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Truth Encoding#Linear Subspaces#Mechanistic Interpretability#Transformer Models#Learning Dynamics#Truth Co-occurrence Hypothesis#Hallucinations2025년 10월 24일댓글 수 로딩 중
[논문리뷰] Language Models are Injective and Hence InvertiblearXiv에 게시된 'Language Models are Injective and Hence Invertible' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Injectivity#Invertibility#Transformer#Representation Learning#Exact Recovery#SIPIT Algorithm#Real Analysis2025년 10월 23일댓글 수 로딩 중
[논문리뷰] On Non-interactive Evaluation of Animal Communication TranslatorsAdam Tauman Kalai이 arXiv에 게시한 'On Non-interactive Evaluation of Animal Communication Translators' 논문에 대한 자세한 리뷰입니다.#Review#Machine Translation Quality Evaluation#Reference-Free Evaluation#Animal Communication#Language Models#Shuffle Test#Conlangs#Non-interactive Evaluation2025년 10월 21일댓글 수 로딩 중
[논문리뷰] Dyna-Mind: Learning to Simulate from Experience for Better AI AgentsQianhui Wu이 arXiv에 게시한 'Dyna-Mind: Learning to Simulate from Experience for Better AI Agents' 논문에 대한 자세한 리뷰입니다.#Review#AI Agents#Reinforcement Learning#World Models#Simulation#Reasoning#Language Models#Planning#Interactive AI2025년 10월 13일댓글 수 로딩 중
[논문리뷰] Mixing Mechanisms: How Language Models Retrieve Bound Entities In-ContextarXiv에 게시된 'Mixing Mechanisms: How Language Models Retrieve Bound Entities In-Context' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#In-Context Learning#Entity Binding#Mechanistic Interpretability#Causal Abstraction#Long-Context Reasoning#Positional Encoding#Information Retrieval2025년 10월 8일댓글 수 로딩 중
[논문리뷰] Eliciting Secret Knowledge from Language ModelsNeel Nanda이 arXiv에 게시한 'Eliciting Secret Knowledge from Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Secret Elicitation#Mechanistic Interpretability#Black-box Methods#White-box Methods#AI Auditing#Model Organisms#Prefill Attacks2025년 10월 2일댓글 수 로딩 중
[논문리뷰] Variational Reasoning for Language ModelsarXiv에 게시된 'Variational Reasoning for Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Variational Inference#Language Models#Reasoning#ELBO#IWAE#Reinforcement Learning#Latent Variables#Forward-KL2025년 9월 29일댓글 수 로딩 중
[논문리뷰] Causal Attention with Lookahead KeysQuanquan Gu이 arXiv에 게시한 'Causal Attention with Lookahead Keys' 논문에 대한 자세한 리뷰입니다.#Review#Causal Attention#Lookahead Keys#Autoregressive Modeling#Language Models#Transformer#Perplexity Reduction#Parallel Training#Efficient Inference2025년 9월 10일댓글 수 로딩 중
[논문리뷰] Why Language Models HallucinateEdwin Zhang이 arXiv에 게시한 'Why Language Models Hallucinate' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Hallucination#Pretraining#Post-training#Evaluation Metrics#Binary Classification#Uncertainty Quantification#Calibration2025년 9월 8일댓글 수 로딩 중
[논문리뷰] LMEnt: A Suite for Analyzing Knowledge in Language Models from Pretraining Data to RepresentationsYoav Gur-Arieh이 arXiv에 게시한 'LMEnt: A Suite for Analyzing Knowledge in Language Models from Pretraining Data to Representations' 논문에 대한 자세한 리뷰입니다.#Review#Language Models#Knowledge Acquisition#Pretraining Data#Entity Linking#Coreference Resolution#Information Retrieval#Model Analysis#Checkpoints2025년 9월 4일댓글 수 로딩 중
[논문리뷰] Jointly Reinforcing Diversity and Quality in Language Model GenerationsTianlu이 arXiv에 게시한 'Jointly Reinforcing Diversity and Quality in Language Model Generations' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Language Models#Diversity Optimization#Quality Enhancement#Semantic Clustering#Post-training#Generative AI2025년 9월 3일댓글 수 로딩 중
[논문리뷰] A Stitch in Time Saves Nine: Proactive Self-Refinement for Language ModelsZishang Jiang이 arXiv에 게시한 'A Stitch in Time Saves Nine: Proactive Self-Refinement for Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Self-Refinement#Language Models#Reinforcement Learning#Proactive AI#Generation Process#Markov Decision Process#Adaptive Learning#LLM Efficiency2025년 8월 20일댓글 수 로딩 중
[논문리뷰] Speech-to-LaTeX: New Models and Datasets for Converting Spoken Equations and SentencesMatvey Skripkin이 arXiv에 게시한 'Speech-to-LaTeX: New Models and Datasets for Converting Spoken Equations and Sentences' 논문에 대한 자세한 리뷰입니다.#Review#Speech-to-LaTeX#ASR#Language Models#Multimodal AI#Dataset Creation#Mathematical Expression Recognition#LaTeX Generation2025년 8월 12일댓글 수 로딩 중
[논문리뷰] Seed Diffusion: A Large-Scale Diffusion Language Model with High-Speed InferenceFan Xia이 arXiv에 게시한 'Seed Diffusion: A Large-Scale Diffusion Language Model with High-Speed Inference' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Models#Language Models#Code Generation#Non-Autoregressive Inference#High-Speed Inference#Discrete Diffusion#LLM Inference2025년 8월 6일댓글 수 로딩 중
[논문리뷰] Goedel-Prover-V2: Scaling Formal Theorem Proving with Scaffolded Data Synthesis and Self-CorrectionJui-Hui Chung이 arXiv에 게시한 'Goedel-Prover-V2: Scaling Formal Theorem Proving with Scaffolded Data Synthesis and Self-Correction' 논문에 대한 자세한 리뷰입니다.#Review#Automated Theorem Proving#Formal Verification#Language Models#Self-Correction#Data Synthesis#Reinforcement Learning#Model Averaging#Lean2025년 8월 6일댓글 수 로딩 중