Query2doc: Query Expansion with Large Language Models

要約

このホワイト ペーパーでは、query2doc と呼ばれるシンプルで効果的なクエリ拡張アプローチを紹介し、疎検索システムと密集検索システムの両方を改善します。
提案された方法は、最初に大規模言語モデル (LLM) をプロンプトする少数のショットによって疑似ドキュメントを生成し、次に生成された疑似ドキュメントでクエリを拡張します。
LLM は、Web スケールのテキスト コーパスでトレーニングを受けており、知識の暗記に長けています。
LLM からの疑似ドキュメントには、多くの場合、クエリのあいまいさを解消し、検索者をガイドするのに役立つ非常に関連性の高い情報が含まれています。
実験結果は、query2doc がモデルの微調整なしで、MS-MARCO や TREC DL などのアドホック IR データセットで BM25 のパフォーマンスを 3% から 15% 向上させることを示しています。
さらに、私たちの方法は、ドメイン内とドメイン外の両方の結果に関して、最先端の高密度レトリバーにもメリットがあります。

要約(オリジナル)

This paper introduces a simple yet effective query expansion approach, denoted as query2doc, to improve both sparse and dense retrieval systems. The proposed method first generates pseudo-documents by few-shot prompting large language models (LLMs), and then expands the query with generated pseudo-documents. LLMs are trained on web-scale text corpora and are adept at knowledge memorization. The pseudo-documents from LLMs often contain highly relevant information that can aid in query disambiguation and guide the retrievers. Experimental results demonstrate that query2doc boosts the performance of BM25 by 3% to 15% on ad-hoc IR datasets, such as MS-MARCO and TREC DL, without any model fine-tuning. Furthermore, our method also benefits state-of-the-art dense retrievers in terms of both in-domain and out-of-domain results.

arxiv情報

著者 Liang Wang,Nan Yang,Furu Wei
発行日 2023-03-14 07:27:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク