Home
0h-n0 TechBLog
キャンセル

✍️ vLLM公式ブログ解説: How Speculative Decoding Boosts vLLM Performance — 実装と性能評価

本記事は How Speculative Decoding Boosts vLLM Performance の解説記事です。 ブログ概要(Summary) vLLMプロジェクトが2024年10月に公開した公式ブログでは、vLLMにおける投機的デコーディングの実装アーキテクチャ、サポートする3つの手法(ドラフトモデル方式、Prompt Lookup Decoding、Medusa/EAGL...

📄 論文解説: AgentDojo — LLMエージェントのプロンプトインジェクション攻撃・防御を動的に評価するフレームワーク

論文概要(Abstract) 本記事は arXiv:2406.13352 “AgentDojo: A Dynamic Environment to Evaluate Prompt Injection Attacks and Defenses for LLM Agents” の解説記事です。 AgentDojoは、ツールを利用するLLMエージェントに対するプロンプトインジェクション攻撃と防...

📄 論文解説: ToolNet — グラフ構造による大規模ツール管理でLLMエージェントのツール選択を効率化

論文概要(Abstract) 本記事は arXiv:2502.11157 “ToolNet: Connecting Large Language Models with Massive Tools via Tool Graph” の解説記事です。 ToolNetは、数百〜数千規模の外部ツールをグラフ構造でモデル化し、LLMエージェントが効率的にツールを選択・連鎖実行できるようにする手法で...

📄 論文解説: Fast Inference from Transformers via Speculative Decoding — 投機的デコーディングの原論文

本記事は Fast Inference from Transformers via Speculative Decoding の解説記事です。 論文概要(Abstract) 本論文は、投機的デコーディング(Speculative Decoding)の理論的基盤を確立した原論文の一つである。著者らは、CPUの投機的実行(speculative execution)の概念をLLMの自己回帰生...

📄 論文解説: EAGLE-3 — 学習時テストスケーリングによるLLM投機的デコーディングの進化

本記事は EAGLE-3: Scaling up Inference Acceleration of LLMs via Training-Time Test Scaling の解説記事です。 論文概要(Abstract) EAGLE-3は、投機的デコーディングにおけるドラフトモデルの学習方法を根本的に見直した手法である。先行研究のEAGLE/EAGLE-2が推論時のツリー構造やアルゴリズ...

📄 論文解説: Medusa — 複数デコーディングヘッドによるLLM推論高速化フレームワーク

本記事は Medusa: Simple LLM Inference Acceleration Framework with Multiple Decoding Heads の解説記事です。 論文概要(Abstract) Medusaは、LLMの推論高速化のためにターゲットモデル自体に複数の予測ヘッドを追加するフレームワークである。従来の投機的デコーディングが外部のドラフトモデルを必要とす...

📄 論文解説: EAGLE — Feature Uncertaintyの再考によるLLM投機的デコーディングの高速化

本記事は EAGLE: Speculative Sampling Requires Rethinking Feature Uncertainty の解説記事です。 論文概要(Abstract) EAGLEは、LLMの投機的デコーディング(Speculative Decoding)を高速化するために、従来のトークンレベルの予測ではなくFeatureレベルでのドラフト生成を提案した手法である...