Synergistic Interplay between Search and Large Language Models for Information Retrieval

要約

情報検索 (IR) は、膨大な量のデータから関連リソースを見つける上で重要な役割を果たしており、そのアプリケーションは従来の知識ベースから最新の検索モデル (RM) に進化しました。
大規模言語モデル (LLM) の出現により、ユーザーが自然言語で検索システムと対話できるようになり、IR 分野にさらに革命が起こりました。
このペーパーでは、LLM と RM の長所と短所を検討し、ユーザー発行のクエリを理解し、最新の情報を取得する際のそれぞれの利点に焦点を当てます。
両方のパラダイムの利点を活用しながら、その制限を回避するために、RM と LLM 間の相乗効果によって情報の洗練を促進する新しいフレームワークである InterR を提案します。
InterR を使用すると、RM は LLM が生成したナレッジ コレクションを使用してクエリの知識を拡張でき、LLM は取得したドキュメントを使用して迅速な定式化を強化できます。
この反復的な改良プロセスにより、RM と LLM の入力が強化され、より正確な検索が可能になります。
Web 検索や低リソース検索タスクを含む大規模な検索ベンチマークの実験では、InteR が最新の手法 (関連性判断を使用する手法を含む) と比較して全体的に優れたゼロショット検索パフォーマンスを達成することが実証されました。
ソースコードは https://github.com/Cyril-JZ/InteR で入手できます。

要約(オリジナル)

Information retrieval (IR) plays a crucial role in locating relevant resources from vast amounts of data, and its applications have evolved from traditional knowledge bases to modern retrieval models (RMs). The emergence of large language models (LLMs) has further revolutionized the IR field by enabling users to interact with search systems in natural languages. In this paper, we explore the advantages and disadvantages of LLMs and RMs, highlighting their respective strengths in understanding user-issued queries and retrieving up-to-date information. To leverage the benefits of both paradigms while circumventing their limitations, we propose InteR, a novel framework that facilitates information refinement through synergy between RMs and LLMs. InteR allows RMs to expand knowledge in queries using LLM-generated knowledge collections and enables LLMs to enhance prompt formulation using retrieved documents. This iterative refinement process augments the inputs of RMs and LLMs, leading to more accurate retrieval. Experiments on large-scale retrieval benchmarks involving web search and low-resource retrieval tasks demonstrate that InteR achieves overall superior zero-shot retrieval performance compared to state-of-the-art methods, even those using relevance judgment. Source code is available at https://github.com/Cyril-JZ/InteR

arxiv情報

著者 Jiazhan Feng,Chongyang Tao,Xiubo Geng,Tao Shen,Can Xu,Guodong Long,Dongyan Zhao,Daxin Jiang
発行日 2023-12-12 14:04:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク