QPaug: Question and Passage Augmentation for Open-Domain Question Answering of LLMs

要約

検索拡張生成 (RAG) は、大規模言語モデル (LLM) のパラメトリック知識を補う手段として、オープンドメイン質問応答 (ODQA) タスクで多くの注目を集めています。
これまでのアプローチは、取得したパッセージを処理して無関係なコンテキストを削除することに焦点を当てていましたが、依然として取得したパッセージの品質に大きく依存しており、質問が曖昧または複雑な場合には品質が低下する可能性があります。
この論文では、オープンドメイン QA 向けに、LLM を介した質問とパッセージの拡張 (QPaug) と呼ばれる、シンプルかつ効率的な方法を提案します。
QPaug はまず、元の質問を複数のステップからなるサブ質問に分解します。
元の質問を詳細なサブ質問と計画で強化することで、何を取得する必要があるのか​​をクエリでより具体的にすることができ、取得パフォーマンスが向上します。
さらに、検索された文章に気を散らす情報や意見の分かれた情報が含まれている場合を補うために、LLM によって自己生成された文章で検索された文章を補い、回答抽出をガイドします。
実験結果は、QPaug が以前の最先端技術を上回っており、既存の RAG メソッドよりも大幅なパフォーマンス向上を達成していることを示しています。
ソース コードは \url{https://github.com/kmswin1/QPaug} で入手できます。

要約(オリジナル)

Retrieval-augmented generation (RAG) has received much attention for Open-domain question-answering (ODQA) tasks as a means to compensate for the parametric knowledge of large language models (LLMs). While previous approaches focused on processing retrieved passages to remove irrelevant context, they still rely heavily on the quality of retrieved passages which can degrade if the question is ambiguous or complex. In this paper, we propose a simple yet efficient method called question and passage augmentation (QPaug) via LLMs for open-domain QA. QPaug first decomposes the original questions into multiple-step sub-questions. By augmenting the original question with detailed sub-questions and planning, we are able to make the query more specific on what needs to be retrieved, improving the retrieval performance. In addition, to compensate for the case where the retrieved passages contain distracting information or divided opinions, we augment the retrieved passages with self-generated passages by LLMs to guide the answer extraction. Experimental results show that QPaug outperforms the previous state-of-the-art and achieves significant performance gain over existing RAG methods. The source code is available at \url{https://github.com/kmswin1/QPaug}.

arxiv情報

著者 Minsang Kim,Cheoneum Park,Seungjun Baek
発行日 2024-09-27 12:18:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク