Home
0h-n0 TechBLog
キャンセル

✍️ NVIDIA AI Red Team解説: セマンティックプロンプトインジェクション — 視覚的記号でAIガードレールを突破する新手法

本記事は Securing Agentic AI: How Semantic Prompt Injections Bypass AI Guardrails (NVIDIA Technical Blog) の解説記事です。 ブログ概要(Summary) NVIDIA AI Red Teamの研究者Daniel Teixeiraは、従来のテキストベース防御を迂回する新カテゴリのマルチモーダル...

📄 論文解説: Hybrid LLM — Conformal Predictionによる品質保証付きLLMルーティング

本記事は Hybrid LLM: Cost-Efficient and Quality-Aware Query Routing (arXiv:2404.04080) の解説記事です。 論文概要(Abstract) Hybrid LLMは、ローカルに配置した小型LLM(例:Vicuna-7B)とクラウドの大型LLM API(例:GPT-4)の間でクエリを動的にルーティングするフレームワーク...

✍️ Meta AI解説: LlamaFirewall — AIエージェント向けオープンソースガードレールシステム

本記事は LlamaFirewall: An Open Source Guardrail System for Building Secure AI Agents (Meta AI Research) の解説記事です。 ブログ概要(Summary) LlamaFirewallは、Metaが開発・公開したAIエージェント向けのオープンソースセキュリティフレームワークである。3つのコアガード...

📄 論文解説: FrugalGPT — LLM APIコストを最大98%削減するカスケード戦略

本記事は FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance (arXiv:2310.03744) の解説記事です。 論文概要(Abstract) FrugalGPTは、LLM APIの利用コストを大幅に削減しながら精度を維持・向上させるフレームワークである。著...

📄 NAACL 2025論文解説: Attention Tracker — 訓練不要のプロンプトインジェクション検出

本記事は Attention Tracker: Detecting Prompt Injection Attacks in LLMs (NAACL 2025 Findings) の解説記事です。 論文概要(Abstract) プロンプトインジェクション攻撃に対し、著者ら(Hung et al.)はLLMの内部注意パターンを解析することで訓練不要(training-free)の検出手法を提...

📄 論文解説: MeanCache — ユーザー中心セマンティックキャッシュによるLLMサービスコスト削減

本記事は MeanCache: User-Centric Semantic Caching for Large Language Model Based Web Services (arXiv:2403.02694) の解説記事です。 論文概要(Abstract) MeanCacheは、LLM APIサービスのコスト削減とレイテンシ短縮を目的としたユーザー中心のセマンティックキャッシュシ...

📄 論文解説: Prompt Injection Attacks and Defenses in LLM-Integrated Applications

本記事は Prompt Injection Attacks and Defenses in LLM-Integrated Applications (arXiv:2310.12815) の解説記事です。 論文概要(Abstract) LLM統合アプリケーション(要約、QA、翻訳等)は外部コンテンツを処理する。攻撃者はそのコンテンツに悪意あるプロンプトを注入し、LLMをハイジャックして意図...

✍️ Chronos-2解説: 単変量から汎用予測へ — Amazonの時系列ファウンデーションモデル

本記事は Introducing Chronos-2: From Univariate to Universal Forecasting — Amazon Science の解説記事です。 ブログ概要(Summary) AmazonはChronos-2を発表し、時系列ファウンデーションモデル(TSFM)を「単変量予測」から「汎用予測」へと拡張した。Chronos-2は120Mパラ...

📄 論文解説: GraphBFF — 初のBillion-Scaleグラフファウンデーションモデルとニューラルスケーリング則

本記事は GraphBFF: Scaling Graph Foundation Models(arXiv:2602.04768) の解説記事です。 論文概要(Abstract) GraphBFF(Graph Billion-Foundation-Fusion)は、2026年2月に発表された初の14億パラメータ規模のグラフファウンデーションモデル(GFM)である。著者らは、異種グラフを効率...