要約
検索拡張生成 (RAG) は、言語モデル (LM) の精度と事実性を向上させる有望な可能性を示しています。
ただし、不完全な検索やノイズの多いコーパスは、取得したコンテンツに誤解を招く情報や、さらには誤った情報を取り込む可能性があり、生成の品質に重大な課題をもたらします。
既存の RAG 手法は通常、ノイズの多い入力にもかかわらず最終的な答えを直接予測することでこの課題に対処しており、その結果、解釈と検証が困難な暗黙的なノイズ除去プロセスが発生します。
一方で、明示的なノイズ除去監視の取得には多くの場合コストがかかり、多大な人的労力が必要となります。
この研究では、LM が自己合成理論的根拠を通じてノイズ除去プロセスを明示的に学習する InstructRAG を提案します。まず、LM に、取得した文書からグラウンドトゥルースの答えがどのように導出されるかを説明するように指示します。
次に、これらの理論的根拠は、明示的なノイズ除去のコンテキスト内学習のデモンストレーションとして、またはモデルをトレーニングするための教師あり微調整データとして使用できます。
標準的な RAG アプローチと比較して、InstructRAG は追加の監視を必要とせず、予測された答えの検証を容易にし、生成精度を効果的に向上させます。
実験では、InstructRAG がトレーニング不要のシナリオとトレーニング可能なシナリオの両方で既存の RAG 手法を常に上回っており、5 つの知識集約型ベンチマーク全体で平均して最良のベースライン手法と比較して 8.3% の相対的な改善を達成していることが示されています。
広範な分析により、InstructRAG は取得ドキュメント数の増加に合わせて適切に拡張でき、ドメイン外のデータセットでも一貫して堅牢なノイズ除去能力を示し、強力な一般化可能性を示していることが示されています。
要約(オリジナル)
Retrieval-augmented generation (RAG) has shown promising potential to enhance the accuracy and factuality of language models (LMs). However, imperfect retrievers or noisy corpora can introduce misleading or even erroneous information to the retrieved contents, posing a significant challenge to the generation quality. Existing RAG methods typically address this challenge by directly predicting final answers despite potentially noisy inputs, resulting in an implicit denoising process that is difficult to interpret and verify. On the other hand, the acquisition of explicit denoising supervision is often costly, involving significant human efforts. In this work, we propose InstructRAG, where LMs explicitly learn the denoising process through self-synthesized rationales — First, we instruct the LM to explain how the ground-truth answer is derived from retrieved documents. Then, these rationales can be used either as demonstrations for in-context learning of explicit denoising or as supervised fine-tuning data to train the model. Compared to standard RAG approaches, InstructRAG requires no additional supervision, allows for easier verification of the predicted answers, and effectively improves generation accuracy. Experiments show InstructRAG consistently outperforms existing RAG methods in both training-free and trainable scenarios, achieving a relative improvement of 8.3% over the best baseline method on average across five knowledge-intensive benchmarks. Extensive analysis indicates that InstructRAG scales well with increased numbers of retrieved documents and consistently exhibits robust denoising ability even in out-of-domain datasets, demonstrating strong generalizability.
arxiv情報
著者 | Zhepei Wei,Wei-Lin Chen,Yu Meng |
発行日 | 2024-08-20 15:48:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google