Home
0h-n0 TechBLog
キャンセル

📄 論文解説: Retrieval-Augmented Generation for Large Language Models — RAGパイプライン設計の体系的整理

本記事は https://arxiv.org/abs/2312.10997 の解説記事です。本記事は論文の引用・解説であり、筆者自身が実験を行ったものではありません。 論文概要(Abstract) Gao et al. (2023) は、Retrieval-Augmented Generation(RAG)に関する包括的サーベイを提示している。LLMが抱えるハルシネーション、知識の陳腐化...

📄 論文解説: Precise Zero-Shot Dense Retrieval without Relevance Labels (HyDE)

本記事は Precise Zero-Shot Dense Retrieval without Relevance Labels(Gao et al., 2022)の解説記事です。 論文概要(Abstract) 密検索(Dense Retrieval)はさまざまなタスクで有効性が示されているが、関連度ラベルが利用できないゼロショット環境での構築は依然として困難である。著者らは、クエリから直...

✍️ vLLM公式ブログ解説: How Speculative Decoding Boosts vLLM Performance — 実装と性能評価

本記事は How Speculative Decoding Boosts vLLM Performance の解説記事です。 ブログ概要(Summary) vLLMプロジェクトが2024年10月に公開した公式ブログでは、vLLMにおける投機的デコーディングの実装アーキテクチャ、サポートする3つの手法(ドラフトモデル方式、Prompt Lookup Decoding、Medusa/EAGL...

📄 論文解説: AgentDojo — LLMエージェントのプロンプトインジェクション攻撃・防御を動的に評価するフレームワーク

論文概要(Abstract) 本記事は arXiv:2406.13352 “AgentDojo: A Dynamic Environment to Evaluate Prompt Injection Attacks and Defenses for LLM Agents” の解説記事です。 AgentDojoは、ツールを利用するLLMエージェントに対するプロンプトインジェクション攻撃と防...

📄 論文解説: ToolNet — グラフ構造による大規模ツール管理でLLMエージェントのツール選択を効率化

論文概要(Abstract) 本記事は arXiv:2502.11157 “ToolNet: Connecting Large Language Models with Massive Tools via Tool Graph” の解説記事です。 ToolNetは、数百〜数千規模の外部ツールをグラフ構造でモデル化し、LLMエージェントが効率的にツールを選択・連鎖実行できるようにする手法で...

📄 論文解説: Fast Inference from Transformers via Speculative Decoding — 投機的デコーディングの原論文

本記事は Fast Inference from Transformers via Speculative Decoding の解説記事です。 論文概要(Abstract) 本論文は、投機的デコーディング(Speculative Decoding)の理論的基盤を確立した原論文の一つである。著者らは、CPUの投機的実行(speculative execution)の概念をLLMの自己回帰生...

📄 論文解説: EAGLE-3 — 学習時テストスケーリングによるLLM投機的デコーディングの進化

本記事は EAGLE-3: Scaling up Inference Acceleration of LLMs via Training-Time Test Scaling の解説記事です。 論文概要(Abstract) EAGLE-3は、投機的デコーディングにおけるドラフトモデルの学習方法を根本的に見直した手法である。先行研究のEAGLE/EAGLE-2が推論時のツリー構造やアルゴリズ...

📄 論文解説: Medusa — 複数デコーディングヘッドによるLLM推論高速化フレームワーク

本記事は Medusa: Simple LLM Inference Acceleration Framework with Multiple Decoding Heads の解説記事です。 論文概要(Abstract) Medusaは、LLMの推論高速化のためにターゲットモデル自体に複数の予測ヘッドを追加するフレームワークである。従来の投機的デコーディングが外部のドラフトモデルを必要とす...