RichRAG: Crafting Rich Responses for Multi-faceted Queries in Retrieval-Augmented Generation

要約

検索拡張生成 (RAG) は、大規模な言語モデルにおける静的知識と幻覚の問題に効果的に対処します。
既存の研究は主に、明確なユーザーの意図と簡潔な回答を備えた質問シナリオに焦点を当てています。
ただし、ユーザーはさまざまな下位意図を持つ広範で自由なクエリを発行することが一般的であり、そのクエリに対して、複数の関連する側面をカバーする豊富で長い形式の回答が求められます。
この重要だがまだ解明されていない問題に取り組むために、私たちは新しい RAG フレームワーク、つまり RichRAG を提案します。
これには、入力質問の潜在的なサブアスペクトを特定するサブアスペクト エクスプローラー、これらのサブアスペクトに関連する多様な外部ドキュメントの候補プールを構築する多面的検索機能、およびキーとなる生成リストワイズ ランカーが含まれています。
モジュールを使用して、最終ジェネレーターに最も価値のある上位から K 個のドキュメントを提供します。
これらのランク付けされたドキュメントは、さまざまなクエリの側面を十分にカバーしており、ジェネレーターの設定を認識しているため、ユーザーに対して豊富で包括的な応答を生成するようにジェネレーターが動機付けられます。
ランカーのトレーニングには、ドキュメントの基本的な範囲を確保するための教師付き微調整ステージと、下流の LLM の設定をドキュメントのランキングに合わせるための強化学習ステージが含まれます。
2 つの公的に利用可能なデータセットに関する実験結果は、私たちのフレームワークがユーザーに包括的で満足のいく応答を効果的かつ効率的に提供することを証明しています。

要約(オリジナル)

Retrieval-augmented generation (RAG) effectively addresses issues of static knowledge and hallucination in large language models. Existing studies mostly focus on question scenarios with clear user intents and concise answers. However, it is prevalent that users issue broad, open-ended queries with diverse sub-intents, for which they desire rich and long-form answers covering multiple relevant aspects. To tackle this important yet underexplored problem, we propose a novel RAG framework, namely RichRAG. It includes a sub-aspect explorer to identify potential sub-aspects of input questions, a multi-faceted retriever to build a candidate pool of diverse external documents related to these sub-aspects, and a generative list-wise ranker, which is a key module to provide the top-k most valuable documents for the final generator. These ranked documents sufficiently cover various query aspects and are aware of the generator’s preferences, hence incentivizing it to produce rich and comprehensive responses for users. The training of our ranker involves a supervised fine-tuning stage to ensure the basic coverage of documents, and a reinforcement learning stage to align downstream LLM’s preferences to the ranking of documents. Experimental results on two publicly available datasets prove that our framework effectively and efficiently provides comprehensive and satisfying responses to users.

arxiv情報

著者 Shuting Wang,Xin Yu,Mang Wang,Weipeng Chen,Yutao Zhu,Zhicheng Dou
発行日 2024-10-01 04:42:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク