Zero-shot Query Reformulation for Conversational Search

要約

音声アシスタントの人気が高まり続けるにつれて、情報検索において会話型検索の注目が高まっています。
しかし、会話型検索におけるデータの希薄性の問題は、教師付き会話型検索手法の進歩を大きく妨げています。
その結果、研究者はゼロショット会話型検索アプローチにさらに重点を置いています。
それにもかかわらず、既存のゼロショット手法は 3 つの主要な制限に直面しています。1 つは、すべてのレトリバーに普遍的に適用できるわけではないこと、その有効性には十分な説明可能性が欠けていること、省略によって引き起こされる一般的な会話のあいまいさを解決するのに苦労していることです。
これらの制限に対処するために、会話検索データによる監視を必要とせずに、以前の対話コンテキストに基づいてクエリを再定式化する新しいゼロショット クエリ再定式化 (ZeQR) フレームワークを導入します。
具体的には、私たちのフレームワークは、機械読解タスク用に設計された言語モデルを利用して、生のクエリにおける 2 つの一般的なあいまいさ (共参照と省略) を明示的に解決します。
既存のゼロショット手法と比較して、私たちのアプローチは、追加の適応やインデックス作成を必要とせずに、あらゆるレトリバーに普遍的に適用できます。
また、曖昧さが明示的かつ積極的に解決されるため、説明可能性が向上し、クエリの意図の理解が効果的に強化されます。
4 つの TREC 会話データセットに対する広範な実験を通じて、最先端のベースラインを常に上回るパフォーマンスを示すこの手法の有効性を実証しました。

要約(オリジナル)

As the popularity of voice assistants continues to surge, conversational search has gained increased attention in Information Retrieval. However, data sparsity issues in conversational search significantly hinder the progress of supervised conversational search methods. Consequently, researchers are focusing more on zero-shot conversational search approaches. Nevertheless, existing zero-shot methods face three primary limitations: they are not universally applicable to all retrievers, their effectiveness lacks sufficient explainability, and they struggle to resolve common conversational ambiguities caused by omission. To address these limitations, we introduce a novel Zero-shot Query Reformulation (ZeQR) framework that reformulates queries based on previous dialogue contexts without requiring supervision from conversational search data. Specifically, our framework utilizes language models designed for machine reading comprehension tasks to explicitly resolve two common ambiguities: coreference and omission, in raw queries. In comparison to existing zero-shot methods, our approach is universally applicable to any retriever without additional adaptation or indexing. It also provides greater explainability and effectively enhances query intent understanding because ambiguities are explicitly and proactively resolved. Through extensive experiments on four TREC conversational datasets, we demonstrate the effectiveness of our method, which consistently outperforms state-of-the-art baselines.

arxiv情報

著者 Dayu Yang,Yue Zhang,Hui Fang
発行日 2023-10-23 17:24:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク