Enhancing Conversational Search: Large Language Model-Aided Informative Query Rewriting

要約

クエリ リライトは、コンテキスト依存のユーザー クエリをスタンドアロン フォームに変換することにより、会話型検索を強化する上で重要な役割を果たします。
既存のアプローチでは、主に人間が書き換えたクエリをラベルとして利用して、クエリ書き換えモデルをトレーニングします。
ただし、人間による書き換えでは、最適な検索パフォーマンスを実現するのに十分な情報が不足する可能性があります。
この制限を克服するために、クエリ リライターとして大規模言語モデル (LLM) を利用し、適切に設計された命令を通じて有益なクエリ リライトを生成できるようにすることを提案します。
整形式の書き換えに必要な 4 つのプロパティを定義し、それらすべてを命令に組み込みます。
さらに、最初のクエリ リライトが利用可能な場合に LLM のリライト エディターの役割を導入し、「リライトしてから編集する」プロセスを形成します。
さらに、LLM の書き換え機能をより小さなモデルに抽出して、書き換えのレイテンシを短縮することを提案します。
QReCC データセットに対する私たちの実験的評価では、有益なクエリのリライトにより、特にスパース リトリーバーの場合、人間によるリライトと比較して検索パフォーマンスが大幅に向上することが実証されました。

要約(オリジナル)

Query rewriting plays a vital role in enhancing conversational search by transforming context-dependent user queries into standalone forms. Existing approaches primarily leverage human-rewritten queries as labels to train query rewriting models. However, human rewrites may lack sufficient information for optimal retrieval performance. To overcome this limitation, we propose utilizing large language models (LLMs) as query rewriters, enabling the generation of informative query rewrites through well-designed instructions. We define four essential properties for well-formed rewrites and incorporate all of them into the instruction. In addition, we introduce the role of rewrite editors for LLMs when initial query rewrites are available, forming a ‘rewrite-then-edit’ process. Furthermore, we propose distilling the rewriting capabilities of LLMs into smaller models to reduce rewriting latency. Our experimental evaluation on the QReCC dataset demonstrates that informative query rewrites can yield substantially improved retrieval performance compared to human rewrites, especially with sparse retrievers.

arxiv情報

著者 Fanghua Ye,Meng Fang,Shenghui Li,Emine Yilmaz
発行日 2023-10-18 13:48:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC, cs.IR パーマリンク