要約
検索された生成(RAG)は、プライベートおよび最新の知識ベースとともに、大きな言語モデル(LLM)を使用する共通のパラダイムとして浮上しています。
In this work, we address the challenges of using LLM-as-a-Judge when evaluating grounded answers generated by RAG systems.
裁判官モデルのキャリブレーションと差別能力を評価するために、7つの発電機障害モードを特定し、144の単体テストのメタ評価ベンチマークであるライチョウ(評価者の接地QA単位スコアリング)を導入します。
このベンチマークは、GPT-4を裁判官として使用する場合でも、既存の自動化されたRAG評価フレームワークが重要な障害モードを見落とすことが多いことを明らかにしています。
自動化されたRAG評価フレームワークの現在の設計を改善するために、新しいパイプラインを提案し、閉じたモデルはライチョウでうまく機能しますが、最先端のオープンソースジャッジは、強い相関関係にもかかわらず、提案された基準に一般化しないことがわかります。
GPT-4の判断。
我々の調査結果は、GPT-4との相関は、裁判官モデルの実際のパフォーマンスのための不完全なプロキシであり、正確な障害モード検出のための単位テストの評価で補足する必要があることを示唆しています。
さらに、GPT-4の推論トレースでFinetuning Llama-3が評価能力を大幅に高め、GPT-4の評価と参照状況でのキャリブレーションの両方との相関の両方を改善することを示しています。
要約(オリジナル)
Retrieval-Augmented Generation (RAG) has emerged as a common paradigm to use Large Language Models (LLMs) alongside private and up-to-date knowledge bases. In this work, we address the challenges of using LLM-as-a-Judge when evaluating grounded answers generated by RAG systems. To assess the calibration and discrimination capabilities of judge models, we identify 7 generator failure modes and introduce GroUSE (Grounded QA Unitary Scoring of Evaluators), a meta-evaluation benchmark of 144 unit tests. This benchmark reveals that existing automated RAG evaluation frameworks often overlook important failure modes, even when using GPT-4 as a judge. To improve on the current design of automated RAG evaluation frameworks, we propose a novel pipeline and find that while closed models perform well on GroUSE, state-of-the-art open-source judges do not generalize to our proposed criteria, despite strong correlation with GPT-4’s judgement. Our findings suggest that correlation with GPT-4 is an incomplete proxy for the practical performance of judge models and should be supplemented with evaluations on unit tests for precise failure mode detection. We further show that finetuning Llama-3 on GPT-4’s reasoning traces significantly boosts its evaluation capabilities, improving upon both correlation with GPT-4’s evaluations and calibration on reference situations.
arxiv情報
著者 | Sacha Muller,António Loison,Bilel Omrani,Gautier Viaud |
発行日 | 2025-01-30 17:34:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google