SmartRAG: Jointly Learn RAG-Related Tasks From the Environment Feedback

要約

RAGシステムは、一緒に動作する複数のモジュールで構成されています。
ただし、これらのモジュールは通常、個別にトレーニングされています。
複数のモジュールを組み込んだRAGのようなシステムは、最適なパフォーマンスを実現するために共同で最適化する必要があると主張します。
これを実証するために、ポリシーネットワークとレトリバーを含む\ textBf {smartrag}と呼ばれる特定のパイプラインを設計します。
ポリシーネットワークは、1)いつ回収するかを決定する意思決定者、2)レトリバーに最も適したクエリを生成するクエリライター、および3)観測値の/なしで最終的な応答を生成する回答ジェネレーターとして機能します。
次に、強化学習アルゴリズムを使用してシステム全体を共同で最適化することを提案します。報酬は、最小限の検索コストで最高のパフォーマンスを達成するようシステムを奨励するように設計されています。
共同で最適化されると、すべてのモジュールが他のモジュールがどのように機能しているかを認識でき、完全なシステムとして協力する最良の方法を見つけることができます。
経験的結果は、共同で最適化されたスマルトラグが、個別に最適化された対応物よりも優れたパフォーマンスを達成できることを示しています。

要約(オリジナル)

RAG systems consist of multiple modules to work together. However, these modules are usually separately trained. We argue that a system like RAG that incorporates multiple modules should be jointly optimized to achieve optimal performance. To demonstrate this, we design a specific pipeline called \textbf{SmartRAG} that includes a policy network and a retriever. The policy network can serve as 1) a decision maker that decides when to retrieve, 2) a query rewriter to generate a query most suited to the retriever, and 3) an answer generator that produces the final response with/without the observations. We then propose to jointly optimize the whole system using a reinforcement learning algorithm, with the reward designed to encourage the system to achieve the best performance with minimal retrieval cost. When jointly optimized, all the modules can be aware of how other modules are working and thus find the best way to work together as a complete system. Empirical results demonstrate that the jointly optimized SmartRAG can achieve better performance than separately optimized counterparts.

arxiv情報

著者 Jingsheng Gao,Linxu Li,Weiyuan Li,Yuzhuo Fu,Bin Dai
発行日 2025-03-10 09:49:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク