本記事は arXiv:2502.13595 (MMTEB: Massive Multilingual Text Embedding Benchmark) の解説記事です。本論文はICLR 2025に採択されています。 論文概要(Abstract) MMTEB(Massive Multilingual Text Embedding Benchmark)は、英語中心であったMTEBを250言...
論文概要(Abstract) 本記事は arXiv:2603.01548(Bholani, 2026)の解説記事です。 LLMエージェントがツールを呼び出す際、ReActのようなステップバイステップ推論ではLLMを各ステップで呼び出す必要があり、高コストかつ障害時の回復にも追加のLLM推論を要する。本論文はSelf-Healing Routerを提案し、タスク開始時にLLMが一度だけ有向...
本記事は arXiv:2407.08275 (Beyond Benchmarks: Evaluating Embedding Model Similarity for Retrieval Augmented Generation Systems) の解説記事です。 論文概要(Abstract) 本論文は、RAGシステムにおけるEmbeddingモデル選定の課題に取り組んでいる。著者ら(V...
本記事は NVIDIA Developer Blog: Building Safer LLM Apps with LangChain Templates and NVIDIA NeMo Guardrails の解説記事です。 ブログ概要(Summary) NVIDIA NeMo Guardrailsは、LLMアプリケーションの入出力をプログラマブルに制御するためのオープンソースフレームワ...
論文概要 本記事は ICML 2024 論文「Position: Building Guardrails for Large Language Models Requires Systematic Design」の解説記事です。著者らは、LLM の入出力をフィルタリングするガードレール技術について、現行のオープンソースソリューション(Llama Guard、NVIDIA NeMo Guar...
論文概要 本記事は arXiv 論文 2305.13246 の解説記事です。Stanford大学の Lingjiao Chen、Matei Zaharia、James Zou らによる「FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance」(2023年5月公開)は、...
論文概要(Abstract) 本記事はarXiv論文 2312.06674 の解説記事です。 Llama Guardは、Meta AIが2023年12月に発表したLLMベースの入出力安全性分類モデルである。人間とAIの会話において、ユーザープロンプト(入力)とモデルレスポンス(出力)の双方を、MLCommons AI Safetyタクソノミーに基づく6カテゴリで「safe」または「uns...
ブログ概要 本記事は、AWS公式ブログ「Build a multi-tenant generative AI environment for your enterprise on AWS」の解説記事です。 AWSはこのブログにおいて、企業内の複数事業部門やチームが Amazon Bedrock の基盤モデル(Foundation Model)に安全かつ効率的にアクセスするための内部Saa...
論文概要(Abstract) 本記事は arXiv:2303.11366(Shinn et al., 2023)の解説記事です。 Reflexionは、LLMエージェントがモデルの重み更新なしに、言語的な自己反省(verbal reflection)を通じて試行錯誤から学習するフレームワークである。従来の強化学習がスカラー報酬と勾配更新に依存するのに対し、Reflexionはエージェント...
論文概要 Process Reward Models for LLM Agents: Practical Framework and Directions(Sanjiban Choudhury, Cornell University, 2025年2月)は、LLMエージェントにProcess Reward Model(PRM)を統合する実用的なフレームワーク「AgentPRM」を提案する。従...