[논문리뷰] Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report v1.5arXiv에 게시된 'Frontier AI Risk Management Framework in Practice: A Risk Analysis Technical Report v1.5' 논문에 대한 자세한 리뷰입니다.#Review#Frontier AI#AI Risk Management#Autonomous Agents#LLM Safety#Cybersecurity#Deception#Self-Replication#Mitigation Frameworks2026년 2월 19일댓글 수 로딩 중
[논문리뷰] SEMA: Simple yet Effective Learning for Multi-Turn Jailbreak AttacksarXiv에 게시된 'SEMA: Simple yet Effective Learning for Multi-Turn Jailbreak Attacks' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Turn Jailbreaks#LLM Safety#Red Teaming#Reinforcement Learning#Intent Drift#Response-Agnostic Generation#Self-Tuning2026년 2월 8일댓글 수 로딩 중
[논문리뷰] Statistical Estimation of Adversarial Risk in Large Language Models under Best-of-N SamplingarXiv에 게시된 'Statistical Estimation of Adversarial Risk in Large Language Models under Best-of-N Sampling' 논문에 대한 자세한 리뷰입니다.#Review#LLM Safety#Adversarial Robustness#Best-of-N Sampling#Statistical Estimation#Beta-Binomial Model#Jailbreak#Risk Amplification2026년 2월 1일댓글 수 로딩 중
[논문리뷰] AgentDoG: A Diagnostic Guardrail Framework for AI Agent Safety and SecurityarXiv에 게시된 'AgentDoG: A Diagnostic Guardrail Framework for AI Agent Safety and Security' 논문에 대한 자세한 리뷰입니다.#Review#AI Agents#Safety Guardrails#Explainable AI (XAI)#Risk Taxonomy#Benchmarking#LLM Safety#Tool Use#Agent Alignment2026년 1월 27일댓글 수 로딩 중
[논문리뷰] FinVault: Benchmarking Financial Agent Safety in Execution-Grounded EnvironmentsarXiv에 게시된 'FinVault: Benchmarking Financial Agent Safety in Execution-Grounded Environments' 논문에 대한 자세한 리뷰입니다.#Review#Financial AI Agents#Security Benchmark#Execution-Grounded#LLM Safety#Prompt Injection#Jailbreaking#Compliance#Vulnerability Assessment2026년 1월 21일댓글 수 로딩 중
[논문리뷰] In-Context Representation Hijackingyossig이 arXiv에 게시한 'In-Context Representation Hijacking' 논문에 대한 자세한 리뷰입니다.#Review#LLM Jailbreak#In-Context Learning#Representation Hijacking#Mechanistic Interpretability#LLM Safety#Adversarial Attack#Semantic Shift2025년 12월 3일댓글 수 로딩 중
[논문리뷰] Jailbreaking in the HaystackAlexander Robey이 arXiv에 게시한 'Jailbreaking in the Haystack' 논문에 대한 자세한 리뷰입니다.#Review#Jailbreaking#LLM Safety#Long-Context Models#Positional Bias#Attack Success Rate (ASR)#Prompt Engineering#Compute Efficiency#AI Agents2025년 11월 9일댓글 수 로딩 중
[논문리뷰] LiveSecBench: A Dynamic and Culturally-Relevant AI Safety Benchmark for LLMs in Chinese ContextTianxin Zhang이 arXiv에 게시한 'LiveSecBench: A Dynamic and Culturally-Relevant AI Safety Benchmark for LLMs in Chinese Context' 논문에 대한 자세한 리뷰입니다.#Review#LLM Safety#AI Safety Benchmark#Chinese Context#Dynamic Evaluation#Cultural Relevance#Adversarial Robustness#ELO Rating System2025년 11월 9일댓글 수 로딩 중
[논문리뷰] ImpossibleBench: Measuring LLMs' Propensity of Exploiting Test CasesNicholas Carlini이 arXiv에 게시한 'ImpossibleBench: Measuring LLMs' Propensity of Exploiting Test Cases' 논문에 대한 자세한 리뷰입니다.#Review#LLM Evaluation#Reward Hacking#Benchmark Reliability#Test Exploitation#Prompt Engineering#LLM Safety#Code Generation2025년 10월 24일댓글 수 로딩 중
[논문리뷰] Agentic Reinforcement Learning for Search is UnsafearXiv에 게시된 'Agentic Reinforcement Learning for Search is Unsafe' 논문에 대한 자세한 리뷰입니다.#Review#Agentic Reinforcement Learning#LLM Safety#Tool Use#Search Models#Jailbreaking#Instruction Tuning#Vulnerability2025년 10월 21일댓글 수 로딩 중
[논문리뷰] Emergent Misalignment via In-Context Learning: Narrow in-context examples can produce broadly misaligned LLMsKevin Zhu이 arXiv에 게시한 'Emergent Misalignment via In-Context Learning: Narrow in-context examples can produce broadly misaligned LLMs' 논문에 대한 자세한 리뷰입니다.#Review#Emergent Misalignment#In-Context Learning#LLM Safety#Persona Rationalization#Prompt Engineering#Model Alignment2025년 10월 20일댓글 수 로딩 중
[논문리뷰] Qwen3Guard Technical ReportarXiv에 게시된 'Qwen3Guard Technical Report' 논문에 대한 자세한 리뷰입니다.#Review#LLM Safety#Guardrail Models#Multilingual AI#Real-time Moderation#Tri-class Classification#Instruction Tuning#Streaming Inference2025년 10월 17일댓글 수 로딩 중
[논문리뷰] The Alignment Waltz: Jointly Training Agents to Collaborate for SafetyarXiv에 게시된 'The Alignment Waltz: Jointly Training Agents to Collaborate for Safety' 논문에 대한 자세한 리뷰입니다.#Review#LLM Safety#Multi-agent Reinforcement Learning#Safety Alignment#Overrefusal#Adversarial Attacks#Feedback Agent#Conversation Agent#Dynamic Improvement Reward2025년 10월 10일댓글 수 로딩 중
[논문리뷰] AdvEvo-MARL: Shaping Internalized Safety through Adversarial Co-Evolution in Multi-Agent Reinforcement LearningZeliang Zhang이 arXiv에 게시한 'AdvEvo-MARL: Shaping Internalized Safety through Adversarial Co-Evolution in Multi-Agent Reinforcement Learning' 논문에 대한 자세한 리뷰입니다.#Review#Multi-Agent Reinforcement Learning#Adversarial Co-evolution#LLM Safety#Jailbreak Attacks#Internalized Safety#Public Baseline#System Robustness2025년 10월 7일댓글 수 로딩 중
[논문리뷰] Your Agent May Misevolve: Emergent Risks in Self-evolving LLM AgentsBoyi Wei이 arXiv에 게시한 'Your Agent May Misevolve: Emergent Risks in Self-evolving LLM Agents' 논문에 대한 자세한 리뷰입니다.#Review#Self-evolving Agents#LLM Safety#Misevolution#Emergent Risks#Model Evolution#Memory Evolution#Tool Evolution#Workflow Evolution2025년 10월 6일댓글 수 로딩 중
[논문리뷰] False Sense of Security: Why Probing-based Malicious Input Detection Fails to GeneralizeMuhao Chen이 arXiv에 게시한 'False Sense of Security: Why Probing-based Malicious Input Detection Fails to Generalize' 논문에 대한 자세한 리뷰입니다.#Review#LLM Safety#Malicious Input Detection#Probing Classifiers#Out-of-Distribution Generalization#Superficial Patterns#Instructional Patterns#Trigger Words#AI Safety2025년 9월 5일댓글 수 로딩 중
[논문리뷰] Turning the Spell Around: Lightweight Alignment Amplification via Rank-One Safety InjectionBernard Ghanem이 arXiv에 게시한 'Turning the Spell Around: Lightweight Alignment Amplification via Rank-One Safety Injection' 논문에 대한 자세한 리뷰입니다.#Review#LLM Safety#Alignment Amplification#Rank-One Update#Mechanistic Interpretability#Weight Steering#Jailbreak Robustness#Fine-tuning-free#Safety Injection2025년 8월 29일댓글 수 로딩 중
[논문리뷰] AlignGuard-LoRA: Alignment-Preserving Fine-Tuning via Fisher-Guided Decomposition and Riemannian-Geodesic Collision RegularizationAman Chadha이 arXiv에 게시한 'AlignGuard-LoRA: Alignment-Preserving Fine-Tuning via Fisher-Guided Decomposition and Riemannian-Geodesic Collision Regularization' 논문에 대한 자세한 리뷰입니다.#Review#Alignment Preservation#Fine-Tuning#LoRA#Fisher Information Matrix#Catastrophic Forgetting#LLM Safety#Riemannian Geometry#Parameter-Efficient Learning2025년 8월 6일댓글 수 로딩 중