Home
0h-n0 TechBLog
キャンセル

📄 ICML 2024論文解説: AnyTool — 大規模API環境における自己反省型エラーリカバリエージェント

本記事は AnyTool: Self-Reflective, Hierarchical Agents for Large-Scale API Calls の解説記事です。 論文概要(Abstract) AnyToolは、16,000以上のAPI(RapidAPI)から適切なツールを選択し、ユーザーのクエリを解決するLLMエージェントである。著者ら(Yu Du, Fangyun Wei, ...

📄 論文解説: xLAM — Function Calling特化のLarge Action Modelファミリー

本記事は xLAM: A Family of Large Action Models to Empower AI Agent Systems の解説記事です。 論文概要(Abstract) xLAMは、Salesforce AIが開発したFunction Calling(ツール呼び出し)特化のモデルファミリーである。著者らは、異種の学習データセット(ToolBench、BFCL、Agen...

📄 論文解説: Gorilla — 大規模API呼び出しにおけるLLMのハルシネーション抑制と検索拡張ファインチューニング

本記事は Gorilla: Large Language Model Connected with Massive APIs の解説記事です。 論文概要(Abstract) Gorillaは、LLMがAPI呼び出しを生成する際のハルシネーション(存在しないAPIや不正な引数の生成)を抑制するために、検索拡張(Retrieval-Augmented)ファインチューニングを適用したモデルであ...

✍️ Anthropic Research解説: Building Effective Agents — LLMエージェントのツール活用設計パターン

本記事は Building Effective Agents — Anthropic Research の解説記事です。 ブログ概要(Summary) Anthropicが2024年12月に公開した「Building Effective Agents」は、LLMを用いたエージェントシステムの設計に関する実践ガイドである。著者らは、エージェント(Agent)とワークフロー(Workflow...

📄 ICML 2024論文解説: LLMCompiler — LLMの並列Function Callingを最適化するコンパイラフレームワーク

本記事は LLMCompiler: An LLM Compiler for Parallel Function Calling の解説記事です。 論文概要(Abstract) LLMCompilerは、LLM(大規模言語モデル)が外部関数を呼び出す際の逐次実行ボトルネックを解消するために、古典的コンパイラの命令レベル並列性(ILP: Instruction-Level Paralleli...

📄 NeurIPS 2024論文解説: Chain of Agents — マルチエージェント協調による長文コンテキスト処理

論文概要(Abstract) 本記事は NeurIPS 2024で発表されたChain of Agents論文 の解説記事です。 Chain of Agents(CoA)は、長文コンテキストタスクに対してマルチエージェント協調を活用するフレームワークである。入力テキストをチャンクに分割し、複数のWorkerエージェントが逐次的に読み進めながらメッセージを引き継ぐことで、限られたコンテキス...

📄 論文解説: Mem0 — スケーラブルな長期記憶でAIエージェントのコンテキスト消費を97%削減

論文概要(Abstract) 本記事は arXiv:2503.10657 の解説記事です。 Mem0(「メム・ゼロ」と発音)は、AIエージェント向けのスケーラブルなメモリ層である。会話からセマンティックに関連する情報を離散ファクトとして抽出し、ベクターデータベースとグラフデータベースのハイブリッドストレージに保存する。著者らは、LOCOMOベンチマークにおいてFull Context(全...

✍️ Microsoft Tech Blog解説: LLM推論最適化スタック — エンタープライズ向け優先順位付きプレイブック

ブログ概要(Summary) 本記事は The LLM Inference Optimization Stack: A Prioritized Playbook for Enterprise Teams の解説記事です。 Microsoftが2026年3月に公開したエンタープライズ向けLLM推論最適化の包括的ガイドであり、GPU活用率の最大化、量子化、vLLMエンジン最適化、モデル選択戦...

📄 論文解説: OPRO — LLM自身をプロンプト最適化器として活用する手法

論文概要(Abstract) 本記事は arXiv:2309.03409 “Large Language Models as Optimizers” の解説記事である。Yang et al.(Google DeepMind)は、LLM自身を最適化器として活用し、自然言語で記述されたプロンプトを反復的に改善する手法「OPRO(Optimization by PROmpting)」を提案した。...