Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity

要約

外部知識ベースからのノンパラメトリック知識を LLM に組み込む検索拡張大規模言語モデル (LLM) は、質問応答 (QA) などのいくつかのタスクにおける応答精度を向上させるための有望なアプローチとして浮上しています。
ただし、さまざまな複雑さのクエリを処理するさまざまなアプローチがあるにもかかわらず、不必要な計算オーバーヘッドを伴う単純なクエリを処理するか、複雑な複数ステップのクエリに適切に対処できません。
ただし、すべてのユーザー リクエストが単純なカテゴリまたは複雑なカテゴリの 1 つにのみ分類されるわけではありません。
この研究では、クエリの複雑さに基づいて、最も単純なものから最も洗練されたものまで、(検索拡張された) LLM に最適な戦略を動的に選択できる、新しい適応型 QA フレームワークを提案します。
また、この選択プロセスは、モデルの実際の予測結果とデータセットの固有の帰納的バイアスから得られた、自動的に収集されたラベルを使用して受信クエリの複雑さのレベルを予測するようにトレーニングされた小規模な LM である分類子を使用して運用されます。
このアプローチは、クエリの複雑さの範囲に応じて、反復的 LLM とシングルステップ検索拡張 LLM、および非検索手法の間でシームレスに適応する、バランスの取れた戦略を提供します。
複数のクエリの複雑さをカバーする一連のオープンドメイン QA データセットでモデルを検証し、適応検索アプローチを含む関連するベースラインと比較して、QA システムの全体的な効率と精度が向上することを示します。
コードは https://github.com/starsuzi/Adaptive-RAG から入手できます。

要約(オリジナル)

Retrieval-Augmented Large Language Models (LLMs), which incorporate the non-parametric knowledge from external knowledge bases into LLMs, have emerged as a promising approach to enhancing response accuracy in several tasks, such as Question-Answering (QA). However, even though there are various approaches dealing with queries of different complexities, they either handle simple queries with unnecessary computational overhead or fail to adequately address complex multi-step queries; yet, not all user requests fall into only one of the simple or complex categories. In this work, we propose a novel adaptive QA framework, that can dynamically select the most suitable strategy for (retrieval-augmented) LLMs from the simplest to the most sophisticated ones based on the query complexity. Also, this selection process is operationalized with a classifier, which is a smaller LM trained to predict the complexity level of incoming queries with automatically collected labels, obtained from actual predicted outcomes of models and inherent inductive biases in datasets. This approach offers a balanced strategy, seamlessly adapting between the iterative and single-step retrieval-augmented LLMs, as well as the no-retrieval methods, in response to a range of query complexities. We validate our model on a set of open-domain QA datasets, covering multiple query complexities, and show that ours enhances the overall efficiency and accuracy of QA systems, compared to relevant baselines including the adaptive retrieval approaches. Code is available at: https://github.com/starsuzi/Adaptive-RAG.

arxiv情報

著者 Soyeong Jeong,Jinheon Baek,Sukmin Cho,Sung Ju Hwang,Jong C. Park
発行日 2024-03-21 13:52:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク