Home EMNLP 2025論文解説: FaithJudge — 人間アノテーション活用のRAG忠実度ベンチマーク
投稿
キャンセル

📄 EMNLP 2025論文解説: FaithJudge — 人間アノテーション活用のRAG忠実度ベンチマーク

本記事は EMNLP 2025 Industry Track の解説記事です。

関連するZenn記事: LangGraph×Claude Sonnet 4.6でインラインLLM-as-Judge品質ゲートを組み込むRAG実装

論文概要

「Benchmarking LLM Faithfulness in RAG with Evolving Leaderboards」は、Vectaraの研究チームがRAG(Retrieval-Augmented Generation)におけるLLMのハルシネーション(幻覚)を体系的に評価するフレームワークFaithJudgeを提案した論文である。

著者らは、既存のハルシネーション検出手法(自社のHHEMモデルを含む)の限界を指摘し、人間がアノテーションしたハルシネーション事例をfew-shotプロンプトとしてLLM審判に提供するアプローチにより、追加訓練なしで評価精度を大幅に改善できると報告している。評価対象は要約・質問応答・データからテキスト生成の3タスクで、46モデルのハルシネーション率をランキング化している。

情報源

  • 論文タイトル: Benchmarking LLM Faithfulness in RAG with Evolving Leaderboards
  • 著者: Manveer Singh Tamber, Forrest Sheng Bao, Chenyu Xu, Ge Luo, Suleman Kazi, Minseok Bae, Miaoran Li, Ofer Mendelevitch, Renyi Qu, Jimmy Lin
  • 会議名: EMNLP 2025 Industry Track(Conference on Empirical Methods in Natural Language Processing)
  • 開催地: 中国・蘇州(2025年11月)
  • ページ: 799-811
  • DOI: 10.18653/v1/2025.emnlp-industry.54
  • コード: https://github.com/vectara/FaithJudge

カンファレンス情報

EMNLP(Empirical Methods in Natural Language Processing)は、ACL(Association for Computational Linguistics)傘下の自然言語処理分野トップカンファレンスの1つである。実証的手法に基づく研究を重視し、Industry Trackでは産業応用に焦点を当てた論文が採択される。2024年のメイントラックの採択率は約22%であった。

技術的詳細

課題: 既存手法の限界

著者らはまずVectaraのHHEM(Hughes Hallucination Evaluation Model)の性能を分析している。HHEMは3バージョンが開発されたが、最新のHHEM-2.1-open(110Mパラメータ)でも平均精度67.1%にとどまると報告している。

FaithJudgeフレームワーク

FaithJudgeの核心は、ゼロショットのLLM審判ではなく、人間アノテーション付き事例をfew-shotで提供する点にある。

graph TD
    A["評価対象の応答"] --> E["FaithJudge プロンプト構築"]
    B["同一タスクの<br/>他モデル応答"] --> C["人間アノテーション<br/>(ハルシネーション箇所・ラベル)"]
    C --> E
    E --> F["LLM審判<br/>(o3-mini-high)"]
    F --> G{"判定"}
    G -->|"Consistent"| H["忠実"]
    G -->|"Hallucinated"| I["ハルシネーション"]
    G -->|"Benign"| J["良性(世界知識)"]

具体的な手順は以下の通りである。

  1. アノテーション事例の収集: FaithBenchでは1記事あたり10モデルの要約が存在する。評価対象の1件を除く9件の要約について、人間がハルシネーション箇所・参照元・ラベル(Unwanted / Benign / Questionable / Consistent)をアノテーション済み
  2. プロンプト構築: アノテーション済み事例をコンテキストとしてLLM審判に提供
  3. 判定: LLM審判が評価対象の応答を分類

ハルシネーション率の算出

モデル $m$ のハルシネーション率 $H(m)$ は以下で定義される。

\[H(m) = \frac{\text{ハルシネーションと判定された応答数}}{\text{総応答数}} \times 100\%\]

データセット

著者らは2つのデータセットを組み合わせている。

  • FaithBench: 75記事 x 10モデル = 750要約。モデル間で判定が分かれる「困難な」記事を意図的に選択(HHEM-2.1、GPT-4o、GPT-3.5の判定が不一致の記事)
  • RagTruth: 要約・質問応答・データからテキスト生成の3タスク。GPT-3.5、GPT-4、Llama-2(7B/13B/70B)、Mistral-7Bの出力に対する人間アノテーション

実装のポイント

FaithJudge リポジトリでは、応答生成と評価の2段階パイプラインが提供されている。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
# 応答生成(各モデルでRAGタスクを実行)
# python3 generate_responses.py --model openai/gpt-4o-2024-11-20

# FaithJudge評価(o3-mini-highを審判として使用)
# python3 eval.py --model openai/gpt-4o-2024-11-20 --judge_model o3-mini

def faithjudge_evaluate(
    candidate_response: str,
    source_document: str,
    annotated_examples: list[dict],
    judge_model: str = "o3-mini-high",
) -> dict:
    """FaithJudge方式のハルシネーション評価

    Args:
        candidate_response: 評価対象の応答テキスト
        source_document: 参照元ドキュメント
        annotated_examples: 人間アノテーション付き事例リスト
        judge_model: 審判に使用するLLMモデル名

    Returns:
        {"label": str, "hallucination_spans": list[str]}
    """
    # few-shotプロンプト構築
    examples_text = format_annotated_examples(annotated_examples)

    prompt = f"""以下は同一ソースに対する他モデルの応答と、
人間によるハルシネーションアノテーションです:

{examples_text}

ソースドキュメント:
{source_document}

評価対象の応答:
{candidate_response}

上記のアノテーション事例を参考に、評価対象の応答に
ハルシネーションが含まれるか判定してください。"""

    result = call_llm(judge_model, prompt)
    return parse_judgment(result)

実験結果

審判モデルの精度

FaithBenchにおける各審判モデルの性能を著者らは以下の通り報告している。

審判モデルBalanced AccuracyF1-Macro
o3-mini-high84.0%82.1%
GPT-4o79.5%81.1%
多数決アンサンブル80.7%81.3%

FaithJudge vs ゼロショット(RagTruth)

タスクFaithJudgeゼロショット改善幅
データ→テキスト85.1%75.1%+10.0pt
質問応答85.4%81.6%+3.8pt
要約84.9%80.3%+4.6pt

全タスクでfew-shot方式がゼロショットを上回り、特にデータからテキスト生成タスクで10ポイントの大幅改善が確認された。

モデル別ハルシネーション率(上位5件)

モデルハルシネーション率
gemini-2.5-pro6.65%
gemini-2.0-flash10.18%
gpt-4.5-preview11.94%
o3-mini-high12.52%
grok-315.26%

著者らは、大規模モデルほどハルシネーション率が低い傾向を確認している。Llama-3.1-8Bは28.38%と最も高いハルシネーション率を示した。

実運用への応用

本論文の知見はRAGシステムの品質管理に直接応用できる。

  1. インラインLLM-as-Judge: Zenn記事で解説されているLangGraphの品質ゲートパターンにおいて、FaithJudgeのfew-shot戦略を適用することで、ゼロショット審判より高精度な忠実度チェックが実現できる
  2. ベンチマーク選定: FaithBenchとRagTruthの組み合わせにより、要約・QA・データ変換の3軸でモデル選定の判断材料を得られる
  3. 審判モデルの選択: o3-mini-highが単体で最高性能を示しており、アンサンブルより単一モデルが有効な場合があることは実装コスト削減の観点で重要である

まとめ

FaithJudgeは、人間アノテーション付きハルシネーション事例をfew-shotプロンプトとして活用することで、追加訓練なしにRAG忠実度評価を改善するフレームワークである。著者らは、既存のHHEMモデル(67.1%精度)やゼロショットLLM審判を大幅に上回る84.0%のBalanced Accuracyを達成し、46モデルにわたるハルシネーション率ランキングを公開している。RAGシステムにおけるLLM-as-Judge品質ゲートの設計に、本論文のfew-shot戦略は実践的な指針を提供する。

参考文献

この投稿は CC BY 4.0 でライセンスされています。