要約
会話型検索は、複雑な情報ニーズを解決するために、複数回にわたるユーザーとシステムの対話をサポートします。
従来のシングルターンのアドホック検索とは異なり、会話型検索では、長くてロングテールの会話履歴コンテキストを伴うコンテキスト依存のクエリを理解するという、より困難な問題に直面します。
会話型クエリ書き換え手法では、明示的に書き換えられたクエリを利用して書き換えモデルをトレーニングし、コンテキスト依存クエリをスタンドストーン検索クエリに変換しますが、これは通常、検索結果の品質を考慮せずに行われます。
会話型の高密度検索手法では、微調整を使用して事前トレーニングされたアドホック クエリ エンコーダーを改善しますが、トレーニングに使用できる会話型検索データによって制限されます。
このペーパーでは、書き換えられたクエリと会話型検索データの関連性判断の両方を活用して、より優れたクエリ表現モデルをトレーニングします。
重要な考え方は、クエリ表現を、書き換えられたクエリおよび関連ドキュメントの表現と一致させることです。
提案されたモデル — Query Representation Alignment Conversational Dense Retriever (QRACDR) は、会話型検索とアドホック検索のさまざまな設定を含む 8 つのデータセットでテストされます。
結果は、最先端の方法と比較して QRACDR の優れたパフォーマンスを示し、表現のアライメントの有効性を確認します。
要約(オリジナル)
Conversational search supports multi-turn user-system interactions to solve complex information needs. Different from the traditional single-turn ad-hoc search, conversational search encounters a more challenging problem of context-dependent query understanding with the lengthy and long-tail conversational history context. While conversational query rewriting methods leverage explicit rewritten queries to train a rewriting model to transform the context-dependent query into a stand-stone search query, this is usually done without considering the quality of search results. Conversational dense retrieval methods use fine-tuning to improve a pre-trained ad-hoc query encoder, but they are limited by the conversational search data available for training. In this paper, we leverage both rewritten queries and relevance judgments in the conversational search data to train a better query representation model. The key idea is to align the query representation with those of rewritten queries and relevant documents. The proposed model — Query Representation Alignment Conversational Dense Retriever, QRACDR, is tested on eight datasets, including various settings in conversational search and ad-hoc search. The results demonstrate the strong performance of QRACDR compared with state-of-the-art methods, and confirm the effectiveness of representation alignment.
arxiv情報
著者 | Fengran Mo,Chen Qu,Kelong Mao,Yihong Wu,Zhan Su,Kaiyu Huang,Jian-Yun Nie |
発行日 | 2024-07-29 17:14:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google