GroUSE: A Benchmark to Evaluate Evaluators in Grounded Question Answering

要約

検索拡張生成 (RAG) は、大規模言語モデル (LLM) をプライベートな最新の知識ベースと併用するための共通のパラダイムとして登場しました。
この作業では、RAG システムによって生成された根拠のある回答を評価する際に LLM をジャッジとして使用する際の課題に取り組みます。
審査員モデルの校正および識別能力を評価するために、7 つの発電機故障モードを特定し、144 個の単体テストのメタ評価ベンチマークである GroUSE (Grounded QA Unitary Scoring of Evaluators) を導入します。
このベンチマークは、GPT-4 を判断材料として使用する場合でも、既存の自動 RAG 評価フレームワークが重要な障害モードを見落とすことが多いことを明らかにしています。
自動化された RAG 評価フレームワークの現在の設計を改善するために、新しいパイプラインを提案しました。その結果、クローズド モデルは GroUSE でうまく機能する一方で、最先端のオープンソース ジャッジは、強い相関関係にもかかわらず、私たちが提案した基準に一般化していないことがわかりました。
GPT-4の判断で。
私たちの調査結果は、GPT-4 との相関関係は判定モデルの実際のパフォーマンスの代用としては不完全であり、正確な故障モード検出のために単体テストの評価で補足する必要があることを示唆しています。
さらに、GPT-4 の推論トレースに基づいて Llama-3 を微調整すると、その評価能力が大幅に向上し、GPT-4 の評価との相関性と基準状況でのキャリブレーションの両方が向上することを示します。

要約(オリジナル)

Retrieval-Augmented Generation (RAG) has emerged as a common paradigm to use Large Language Models (LLMs) alongside private and up-to-date knowledge bases. In this work, we address the challenges of using LLM-as-a-Judge when evaluating grounded answers generated by RAG systems. To assess the calibration and discrimination capabilities of judge models, we identify 7 generator failure modes and introduce GroUSE (Grounded QA Unitary Scoring of Evaluators), a meta-evaluation benchmark of 144 unit tests. This benchmark reveals that existing automated RAG evaluation frameworks often overlook important failure modes, even when using GPT-4 as a judge. To improve on the current design of automated RAG evaluation frameworks, we propose a novel pipeline and find that while closed models perform well on GroUSE, state-of-the-art open-source judges do not generalize to our proposed criteria, despite strong correlation with GPT-4’s judgement. Our findings suggest that correlation with GPT-4 is an incomplete proxy for the practical performance of judge models and should be supplemented with evaluations on unit tests for precise failure mode detection. We further show that finetuning Llama-3 on GPT-4’s reasoning traces significantly boosts its evaluation capabilities, improving upon both correlation with GPT-4’s evaluations and calibration on reference situations.

arxiv情報

著者 Sacha Muller,António Loison,Bilel Omrani,Gautier Viaud
発行日 2024-09-10 15:39:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, I.2.7 パーマリンク