Home
0h-n0 TechBLog
キャンセル

📄 論文解説: ToolHijacker — LLMエージェントのツール選択に対するプロンプトインジェクション攻撃

論文概要(Abstract) 本記事は arXiv:2504.19793 の解説記事です。 ToolHijackerは、LLMエージェントのツール選択パイプラインに対する新たなプロンプトインジェクション攻撃手法である。著者らは、攻撃者がツールライブラリに悪意あるツールドキュメントを注入し、LLMエージェントに正規ツールの代わりに悪意あるツールを選択させる手法を提案している。攻撃をドキュメ...

📄 論文解説: EAGLE-2 - 動的ドラフトツリーによるLLM推論高速化

本記事は EAGLE-2: Faster Inference of Language Models with Dynamic Draft Trees (arXiv:2406.14066) の解説記事です。 論文概要(Abstract) 本論文は、Speculative Decodingの改良手法EAGLE-2を提案している。先行手法EAGLE-1(1層のAutoregressive He...

📄 論文解説: Fast Inference from Transformers via Speculative Decoding

本記事は Fast Inference from Transformers via Speculative Decoding (arXiv:2211.17192) の解説記事です。 論文概要(Abstract) 本論文は、LLMの自己回帰推論を高速化するSpeculative Decoding(投機的デコーディング)を提案している。小さなドラフトモデル(draft model)でK個のト...

📄 論文解説: Efficiently Programming Large Language Models using SGLang

本記事は Efficiently Programming Large Language Models using SGLang (arXiv:2312.07910) の解説記事です。 論文概要(Abstract) 本論文は、LLMの呼び出しを効率的にプログラミングするためのフロントエンドDSL(SGLang言語)と、バックエンドのKVキャッシュ再利用最適化(RadixAttention)...

📄 論文解説: Efficient Memory Management for Large Language Model Serving with PagedAttention

本記事は Efficient Memory Management for Large Language Model Serving with PagedAttention (arXiv:2309.06180) の解説記事です。 論文概要(Abstract) 本論文は、LLM推論サービングにおけるKVキャッシュのメモリ管理問題に対し、OSの仮想メモリ管理からインスパイアされたPagedAt...

📄 論文解説: Authenticated Delegation and Authorized AI Agents

論文概要(Abstract) 本記事は https://arxiv.org/abs/2501.10236 の解説記事です。 自律AIエージェントがユーザーの代理で外部サービスにアクセスする際、「このエージェントは誰の権限で何をしてよいのか」を暗号的に保証する仕組みが欠けている。本論文では、署名付きDelegation Token(DT)、階層的ケイパビリティモデル、形式的な認可ロジックか...

✍️ AWS公式ブログ解説: Multi-Agent collaboration patterns with Strands Agents and Amazon Nova

本記事は Multi-Agent collaboration patterns with Strands Agents and Amazon Nova(AWS Machine Learning Blog)の解説記事です。 ブログ概要(Summary) AWSが開発したオープンソースのPython SDK「Strands Agents」を用いたマルチエージェント協調パターンの解説ブログであ...