最近の更新
guardrails 18
- 論文解説: OneShield Privacy Guard — LLMプライバシーガードレールの実デプロイ比較分析 28/03/2026
- NVIDIA NeMo Guardrails解説:Colang言語によるプログラマブルLLMガードレール実装 21/03/2026
- ICML 2024論文解説: LLMガードレールの体系的設計手法 21/03/2026
- 論文解説: Llama Guard — LLMベース入出力ガードレールの設計と実装 21/03/2026
- 論文解説: Agentic AI for Enterprise - Multi-Agent Orchestration with Guardrails 15/03/2026
- NVIDIA AI Red Team解説: セマンティックプロンプトインジェクション — 視覚的記号でAIガードレールを突破する新手法 12/03/2026
- Meta AI解説: LlamaFirewall — AIエージェント向けオープンソースガードレールシステム 12/03/2026
- NAACL 2025論文解説: Attention Tracker — 訓練不要のプロンプトインジェクション検出 12/03/2026
- 論文解説: Prompt Injection Attacks and Defenses in LLM-Integrated Applications 12/03/2026
- ACL 2025論文解説: PIGuard — 過剰防御を抑制するプロンプトインジェクション検出 12/03/2026
- 論文解説: LlamaFirewall — Metaが提案するLLMエージェント向けオープンソースガードレールシステム 11/03/2026
- NVIDIA技術ブログ解説: Mastering LLM Techniques: LLMOps — 本番LLMパイプラインの設計パターン 18/02/2026
- NeurIPS 2024論文解説: LLM-Check — LLMのHallucination検出手法の体系的評価 17/02/2026
- Amazon Bedrock Automated Reasoningによる数学的LLM出力検証 17/02/2026
- NVIDIA NeMo Guardrailsのストリーミング検証アーキテクチャ解説 17/02/2026
- 論文解説: Llama Guard — LLMベースの入出力セーフガードモデル 17/02/2026
- 論文解説: NeMo Guardrails - プログラマブルなLLM安全性制御フレームワーク 17/02/2026
- 論文解説: HaloScope — ラベルなしLLM生成文からのHallucination検出 17/02/2026