[논문리뷰] Pushing the Boundaries of Natural Reasoning: Interleaved Bonus from Formal-Logic VerificationarXiv에 게시된 'Pushing the Boundaries of Natural Reasoning: Interleaved Bonus from Formal-Logic Verification' 논문에 대한 자세한 리뷰입니다.#Review#LLM Reasoning#Formal Verification#Neuro-Symbolic AI#Reinforcement Learning#Supervised Fine-tuning#Logic Consistency#Mathematical Reasoning2026년 2월 1일댓글 수 로딩 중
[논문리뷰] PaperBanana: Automating Academic Illustration for AI ScientistsarXiv에 게시된 'PaperBanana: Automating Academic Illustration for AI Scientists' 논문에 대한 자세한 리뷰입니다.#Review#Automated Illustration Generation#Agentic Framework#Vision-Language Model#Image Generation#Methodology Diagrams#Statistical Plots#Academic Publishing#Iterative Refinement2026년 2월 1일댓글 수 로딩 중
[논문리뷰] PaddleOCR-VL-1.5: Towards a Multi-Task 0.9B VLM for Robust In-the-Wild Document ParsingZelun Zhang이 arXiv에 게시한 'PaddleOCR-VL-1.5: Towards a Multi-Task 0.9B VLM for Robust In-the-Wild Document Parsing' 논문에 대한 자세한 리뷰입니다.#Review#Document Parsing#Visual Language Model (VLM)#Robustness#Multi-task Learning#Layout Analysis#OCR#Real-world Scenarios#Parameter Efficiency2026년 2월 1일댓글 수 로딩 중
[논문리뷰] MemOCR: Layout-Aware Visual Memory for Efficient Long-Horizon ReasoningYuxin Chen이 arXiv에 게시한 'MemOCR: Layout-Aware Visual Memory for Efficient Long-Horizon Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Long-Horizon Reasoning#Multimodal Memory#Visual Layout#Adaptive Information Density#Reinforcement Learning#Context Window#Large Language Models2026년 2월 1일댓글 수 로딩 중
[논문리뷰] Latent Chain-of-Thought as Planning: Decoupling Reasoning from VerbalizationarXiv에 게시된 'Latent Chain-of-Thought as Planning: Decoupling Reasoning from Verbalization' 논문에 대한 자세한 리뷰입니다.#Review#Latent Reasoning#Chain-of-Thought (CoT)#Large Language Models (LLMs)#Planning#Reinforcement Learning#Mathematical Reasoning#Decoupling#Interpretability2026년 2월 1일댓글 수 로딩 중
[논문리뷰] FourierSampler: Unlocking Non-Autoregressive Potential in Diffusion Language Models via Frequency-Guided GenerationarXiv에 게시된 'FourierSampler: Unlocking Non-Autoregressive Potential in Diffusion Language Models via Frequency-Guided Generation' 논문에 대한 자세한 리뷰입니다.#Review#Diffusion Language Models#Non-Autoregressive Generation#Frequency Domain Analysis#Decoding Strategy#Structure-to-Detail#Fourier Transform#Text Generation2026년 2월 1일댓글 수 로딩 중
[논문리뷰] DreamActor-M2: Universal Character Image Animation via Spatiotemporal In-Context LearningarXiv에 게시된 'DreamActor-M2: Universal Character Image Animation via Spatiotemporal In-Context Learning' 논문에 대한 자세한 리뷰입니다.#Review#Character Animation#Image Animation#Spatiotemporal Learning#In-Context Learning#Diffusion Models#Motion Transfer#Generalization#Video Generation2026년 2월 1일댓글 수 로딩 중
[논문리뷰] DenseGRPO: From Sparse to Dense Reward for Flow Matching Model AlignmentarXiv에 게시된 'DenseGRPO: From Sparse to Dense Reward for Flow Matching Model Alignment' 논문에 대한 자세한 리뷰입니다.#Review#Reinforcement Learning#Flow Matching Models#Dense Reward#Sparse Reward Problem#Preference Alignment#SDE Sampler#GRPO#Text-to-Image Generation2026년 2월 1일댓글 수 로딩 중
[논문리뷰] Deep Search with Hierarchical Meta-Cognitive Monitoring Inspired by Cognitive NeurosciencearXiv에 게시된 'Deep Search with Hierarchical Meta-Cognitive Monitoring Inspired by Cognitive Neuroscience' 논문에 대한 자세한 리뷰입니다.#Review#Deep Search Agent#Meta-Cognitive Monitoring#Hierarchical Monitoring#Large Language Models#Cognitive Neuroscience#Uncertainty Calibration2026년 2월 1일댓글 수 로딩 중
[논문리뷰] DINO-SAE: DINO Spherical Autoencoder for High-Fidelity Image Reconstruction and GenerationJong Chul Ye이 arXiv에 게시한 'DINO-SAE: DINO Spherical Autoencoder for High-Fidelity Image Reconstruction and Generation' 논문에 대한 자세한 리뷰입니다.#Review#Autoencoder#DINO#Vision Foundation Models#Image Generation#Image Reconstruction#Spherical Manifold#Diffusion Models#Flow Matching2026년 2월 1일댓글 수 로딩 중
[논문리뷰] Continual GUI AgentsarXiv에 게시된 'Continual GUI Agents' 논문에 대한 자세한 리뷰입니다.#Review#Continual Learning#GUI Agents#Reinforcement Learning#Grounding#Domain Adaptation#Resolution Adaptation#Reward Shaping#Human-Computer Interaction2026년 2월 1일댓글 수 로딩 중
[논문리뷰] ASTRA: Automated Synthesis of agentic Trajectories and Reinforcement ArenasKaichi Yu이 arXiv에 게시한 'ASTRA: Automated Synthesis of agentic Trajectories and Reinforcement Arenas' 논문에 대한 자세한 리뷰입니다.#Review#LLM Agent#Tool Use#Trajectory Synthesis#Reinforcement Learning#Environment Synthesis#Data Generation#Multi-turn Interaction#Automated Training2026년 2월 1일댓글 수 로딩 중
[논문리뷰] VTC-R1: Vision-Text Compression for Efficient Long-Context ReasoningarXiv에 게시된 'VTC-R1: Vision-Text Compression for Efficient Long-Context Reasoning' 논문에 대한 자세한 리뷰입니다.#Review#Vision-Text Compression#Long-Context Reasoning#LLM Efficiency#Vision-Language Models#Iterative Reasoning#Mathematical Problem Solving#Inference Speedup2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Typhoon-S: Minimal Open Post-Training for Sovereign Large Language ModelsarXiv에 게시된 'Typhoon-S: Minimal Open Post-Training for Sovereign Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Sovereign LLMs#Post-Training#Instruction Tuning#Supervised Fine-tuning#On-Policy Distillation#Reinforcement Learning#Knowledge Injection#Thai Language2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Self-Improving Pretraining: using post-trained models to pretrain better modelsarXiv에 게시된 'Self-Improving Pretraining: using post-trained models to pretrain better models' 논문에 대한 자세한 리뷰입니다.#Review#Self-Improving Pretraining#Reinforcement Learning (RL)#Large Language Models (LLMs)#Quality Control#Factuality#Safety#Post-trained Models#Pretraining Data Augmentation2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Scaling Embeddings Outperforms Scaling Experts in Language ModelsarXiv에 게시된 'Scaling Embeddings Outperforms Scaling Experts in Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Embedding Scaling#N-gram Embedding#Mixture-of-Experts (MoE)#Large Language Models (LLMs)#Parameter Efficiency#Inference Optimization#Speculative Decoding2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Scalable Power Sampling: Unlocking Efficient, Training-Free Reasoning for LLMs via Distribution SharpeningHaitham Bou Ammar이 arXiv에 게시한 'Scalable Power Sampling: Unlocking Efficient, Training-Free Reasoning for LLMs via Distribution Sharpening' 논문에 대한 자세한 리뷰입니다.#Review#LLM Reasoning#Distribution Sharpening#Power Sampling#Training-Free#Monte Carlo Estimation#Jackknife Correction#Autoregressive Generation#Inference Efficiency2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Qwen3-ASR Technical ReportarXiv에 게시된 'Qwen3-ASR Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#ASR#Language Identification#Forced Alignment#Large Audio-Language Models#Multilingual Speech Recognition#Streaming Inference#Qwen3-Omni2026년 1월 29일댓글 수 로딩 중
[논문리뷰] PLANING: A Loosely Coupled Triangle-Gaussian Framework for Streaming 3D ReconstructionarXiv에 게시된 'PLANING: A Loosely Coupled Triangle-Gaussian Framework for Streaming 3D Reconstruction' 논문에 대한 자세한 리뷰입니다.#Review#Streaming 3D Reconstruction#Hybrid Representation#Triangle Primitives#Neural Gaussians#Geometric Accuracy#High-Fidelity Rendering#Embodied AI#Monocular SLAM2026년 1월 29일댓글 수 로딩 중
[논문리뷰] OCRVerse: Towards Holistic OCR in End-to-End Vision-Language ModelsLiming Zheng이 arXiv에 게시한 'OCRVerse: Towards Holistic OCR in End-to-End Vision-Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Holistic OCR#Vision-Language Models#Multi-domain Training#Text-centric OCR#Vision-centric OCR#SFT-RL#Code Generation#Document Understanding2026년 1월 29일댓글 수 로딩 중