要約
検索された生成(RAG)システムは、質問応答やマルチターンダイアログ\ citep {lewis2020retrieval}などのアプリケーションで大きな利点を示しています。
ただし、静的な知識ベースを活用しながら、従来のRAGメソッドは、進行中の会話における動的な歴史的情報の可能性を見落としていることがよくあります。
このギャップを埋めるために、マルチターンダイアログのための動的な歴史的コンテキスト駆動の検索された検索された生成方法であるDH-RAGを紹介します。
DH-RAGは、会話型応答に長期的な記憶と即時の歴史的背景の両方を利用する人間の認知プロセスに触発されています\ citep {stafford1987Conversational}。
DH-RAGは、2つの主要なコンポーネントを中心に構成されています。履歴学習ベースのクエリ再構築モジュール。現在および以前の相互作用を合成することにより効果的なクエリを生成するように設計されており、モジュールを継続的に対話全体に継続的に再ルエシングする動的履歴情報更新モジュールです。
DH-RAGの中心は動的な履歴情報データベースであり、クエリ再構成モジュール内の3つの戦略によってさらに洗練されています:履歴クエリクラスタリング、階層的マッチング、および思考追跡チェーン。
実験的評価は、DH-RAGがいくつかのベンチマークで従来のモデルを大幅に上回り、応答の関連性、一貫性、および対話の質を高めることを示しています。
要約(オリジナル)
Retrieval-Augmented Generation (RAG) systems have shown substantial benefits in applications such as question answering and multi-turn dialogue \citep{lewis2020retrieval}. However, traditional RAG methods, while leveraging static knowledge bases, often overlook the potential of dynamic historical information in ongoing conversations. To bridge this gap, we introduce DH-RAG, a Dynamic Historical Context-Powered Retrieval-Augmented Generation Method for Multi-Turn Dialogue. DH-RAG is inspired by human cognitive processes that utilize both long-term memory and immediate historical context in conversational responses \citep{stafford1987conversational}. DH-RAG is structured around two principal components: a History-Learning based Query Reconstruction Module, designed to generate effective queries by synthesizing current and prior interactions, and a Dynamic History Information Updating Module, which continually refreshes historical context throughout the dialogue. The center of DH-RAG is a Dynamic Historical Information database, which is further refined by three strategies within the Query Reconstruction Module: Historical Query Clustering, Hierarchical Matching, and Chain of Thought Tracking. Experimental evaluations show that DH-RAG significantly surpasses conventional models on several benchmarks, enhancing response relevance, coherence, and dialogue quality.
arxiv情報
著者 | Feiyuan Zhang,Dezhi Zhu,James Ming,Yilun Jin,Di Chai,Liu Yang,Han Tian,Zhaoxin Fan,Kai Chen |
発行日 | 2025-02-19 16:10:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google