[논문리뷰] Diffutron: A Masked Diffusion Language Model for Turkish LanguagearXiv에 게시된 'Diffutron: A Masked Diffusion Language Model for Turkish Language' 논문에 대한 자세한 리뷰입니다.#Review#Masked Diffusion Language Models#Turkish NLP#Non-Autoregressive Generation#LoRA#Instruction Tuning#Morphologically Rich Languages#Parameter Efficiency2026년 3월 29일댓글 수 로딩 중
[논문리뷰] PaddleOCR-VL-1.5: Towards a Multi-Task 0.9B VLM for Robust In-the-Wild Document ParsingZelun Zhang이 arXiv에 게시한 'PaddleOCR-VL-1.5: Towards a Multi-Task 0.9B VLM for Robust In-the-Wild Document Parsing' 논문에 대한 자세한 리뷰입니다.#Review#Document Parsing#Visual Language Model (VLM)#Robustness#Multi-task Learning#Layout Analysis#OCR#Real-world Scenarios#Parameter Efficiency2026년 2월 1일댓글 수 로딩 중
[논문리뷰] Scaling Embeddings Outperforms Scaling Experts in Language ModelsarXiv에 게시된 'Scaling Embeddings Outperforms Scaling Experts in Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Embedding Scaling#N-gram Embedding#Mixture-of-Experts (MoE)#Large Language Models (LLMs)#Parameter Efficiency#Inference Optimization#Speculative Decoding2026년 1월 29일댓글 수 로딩 중
[논문리뷰] Scaling Latent Reasoning via Looped Language ModelsarXiv에 게시된 'Scaling Latent Reasoning via Looped Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Looped Language Models#Latent Reasoning#Parameter Efficiency#Adaptive Computation#Pre-training Scaling#Knowledge Manipulation#Early Exit Mechanisms#Transformer Architecture2025년 10월 30일댓글 수 로딩 중
[논문리뷰] ARC-Encoder: learning compressed text representations for large language modelsarXiv에 게시된 'ARC-Encoder: learning compressed text representations for large language models' 논문에 대한 자세한 리뷰입니다.#Review#Context Compression#Large Language Models#Encoder-Decoder Architecture#Text Representation#In-Context Learning#Parameter Efficiency#Retrieval-Augmented Generation2025년 10월 27일댓글 수 로딩 중
[논문리뷰] Less is More: Recursive Reasoning with Tiny NetworksarXiv에 게시된 'Less is More: Recursive Reasoning with Tiny Networks' 논문에 대한 자세한 리뷰입니다.#Review#Recursive Reasoning#Tiny Networks#Deep Supervision#Hierarchical Reasoning Model (HRM)#Sudoku-Extreme#ARC-AGI#Generalization#Parameter Efficiency2025년 10월 8일댓글 수 로딩 중
[논문리뷰] Provable Benefits of In-Tool Learning for Large Language ModelsVivien Cabannes이 arXiv에 게시한 'Provable Benefits of In-Tool Learning for Large Language Models' 논문에 대한 자세한 리뷰입니다.#Review#Large Language Models#In-Tool Learning#In-Weight Learning#Factual Recall#Retrieval-Augmented Generation#Scaling Laws#Parameter Efficiency#Catastrophic Forgetting2025년 8월 29일댓글 수 로딩 중
[논문리뷰] MoBE: Mixture-of-Basis-Experts for Compressing MoE-based LLMsJianguo Li이 arXiv에 게시한 'MoBE: Mixture-of-Basis-Experts for Compressing MoE-based LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Mixture-of-Experts (MoE)#LLM Compression#Matrix Decomposition#Parameter Efficiency#Deep Learning#Memory Optimization2025년 8월 12일댓글 수 로딩 중
[논문리뷰] Skywork UniPic: Unified Autoregressive Modeling for Visual Understanding and GenerationTianyidan Xie이 arXiv에 게시한 'Skywork UniPic: Unified Autoregressive Modeling for Visual Understanding and Generation' 논문에 대한 자세한 리뷰입니다.#Review#Autoregressive Models#Multimodal AI#Image Generation#Image Editing#Visual Understanding#Unified Architecture#Parameter Efficiency2025년 8월 6일댓글 수 로딩 중