Inference-time Re-ranker Relevance Feedback for Neural Information Retrieval

要約

ニューラル情報の取得では、多くの場合、取得と再ランク付けのフレームワークが採用されます。つまり、バイエンコーダー ネットワークが最初に K (たとえば、100) 個の候補を取得し、その後、より強力なクロスエンコーダー モデルを使用して再ランク付けされ、より優れた候補が上位にランク付けされます。
一般に、再ランカーは取得者よりも優れた候補スコアを生成しますが、検索された上位 K 個の候補のみを表示することに限定されているため、Recall@K によって測定される検索パフォーマンスは向上しません。
この作業では、リランカーを利用して、推論時の関連性フィードバックを取得者に提供することで取得を改善します。
具体的には、そのインスタンスに対するリランカーの予測の軽量推論時間蒸留を使用して、テスト インスタンスに対する取得者のクエリ表現を更新します。
蒸留損失は、レトリーバーの候補スコアを再ランカーのスコアに近づけるように設計されています。
次に、更新されたクエリ ベクトルを使用して 2 番目の検索ステップが実行されます。
私たちは、任意の検索と再ランクのパイプラインを提供できる私たちのアプローチが、複数のドメイン、言語、およびモダリティでの検索再現率を大幅に向上させることを経験的に示しています。

要約(オリジナル)

Neural information retrieval often adopts a retrieve-and-rerank framework: a bi-encoder network first retrieves K (e.g., 100) candidates that are then re-ranked using a more powerful cross-encoder model to rank the better candidates higher. The re-ranker generally produces better candidate scores than the retriever, but is limited to seeing only the top K retrieved candidates, thus providing no improvements in retrieval performance as measured by Recall@K. In this work, we leverage the re-ranker to also improve retrieval by providing inference-time relevance feedback to the retriever. Concretely, we update the retriever’s query representation for a test instance using a lightweight inference-time distillation of the re-ranker’s prediction for that instance. The distillation loss is designed to bring the retriever’s candidate scores closer to those of the re-ranker. A second retrieval step is then performed with the updated query vector. We empirically show that our approach, which can serve arbitrary retrieve-and-rerank pipelines, significantly improves retrieval recall in multiple domains, languages, and modalities.

arxiv情報

著者 Revanth Gangi Reddy,Pradeep Dasigi,Md Arafat Sultan,Arman Cohan,Avirup Sil,Heng Ji,Hannaneh Hajishirzi
発行日 2023-05-19 15:30:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク