[논문리뷰] In-Place Test-Time TrainingDi He이 arXiv에 게시한 'In-Place Test-Time Training' 논문에 대한 자세한 리뷰입니다.#Review#In-Place Test-Time Training#Large Language Models#Fast Weights#Next-Token Prediction#Chunk-Wise Update#Continual Learning2026년 4월 7일댓글 수 로딩 중
[논문리뷰] LongCat-Next: Lexicalizing Modalities as Discrete TokensarXiv에 게시된 'LongCat-Next: Lexicalizing Modalities as Discrete Tokens' 논문에 대한 자세한 리뷰입니다.#Review#Multimodality#Autoregressive Modeling#Discrete Tokenization#Vision Transformer#Audio Tokenization#Mixture-of-Experts#Next-Token Prediction2026년 3월 31일댓글 수 로딩 중
[논문리뷰] Dynamic Large Concept Models: Latent Reasoning in an Adaptive Semantic SpacearXiv에 게시된 'Dynamic Large Concept Models: Latent Reasoning in an Adaptive Semantic Space' 논문에 대한 자세한 리뷰입니다.#Review#Hierarchical Language Model#Concept-Level Reasoning#Dynamic Segmentation#Adaptive Computation#Scaling Laws#Maximal Update Parametrization#Next-Token Prediction#Flash Attention2026년 1월 1일댓글 수 로딩 중
[논문리뷰] Genomic Next-Token Predictors are In-Context LearnersarXiv에 게시된 'Genomic Next-Token Predictors are In-Context Learners' 논문에 대한 자세한 리뷰입니다.#Review#In-Context Learning (ICL)#Genomic Sequences#Next-Token Prediction#Large Language Models (LLMs)#Modality-Agnostic AI#Meta-Learning#Bitstring Program Synthesis#Evo22025년 11월 17일댓글 수 로딩 중
[논문리뷰] Emu3.5: Native Multimodal Models are World LearnersarXiv에 게시된 'Emu3.5: Native Multimodal Models are World Learners' 논문에 대한 자세한 리뷰입니다.#Review#Multimodal Model#World Model#Vision-Language#Next-Token Prediction#Reinforcement Learning#Discrete Diffusion Adaptation#Image Generation#Any-to-Image2025년 10월 31일댓글 수 로딩 중
[논문리뷰] Understand Before You Generate: Self-Guided Training for Autoregressive Image GenerationXihui Liu이 arXiv에 게시한 'Understand Before You Generate: Self-Guided Training for Autoregressive Image Generation' 논문에 대한 자세한 리뷰입니다.#Review#Autoregressive Models#Image Generation#Self-Supervised Learning#Visual Understanding#Masked Image Modeling#Contrastive Learning#Next-Token Prediction#LlamaGen2025년 9월 19일댓글 수 로딩 중
[논문리뷰] Predicting the Order of Upcoming Tokens Improves Language ModelingAlham Fikri Aji이 arXiv에 게시한 'Predicting the Order of Upcoming Tokens Improves Language Modeling' 논문에 대한 자세한 리뷰입니다.#Review#Language Modeling#Next-Token Prediction#Multi-Token Prediction#Token Order Prediction#Auxiliary Objective#Learning-to-Rank#Transformer#Large Language Models2025년 8월 28일댓글 수 로딩 중