Knowledge Refinement via Interaction Between Search Engines and Large Language Models

要約

情報検索(IR)は、膨大な量のデータから関連するリソースを探し出すという重要な役割を担っており、そのアプリケーションは、従来の知識ベースから現代の検索エンジン(SE)へと進化してきた。大規模言語モデル(LLM)の出現は、ユーザーが自然言語で検索システムと対話することを可能にし、この分野にさらなる革命をもたらしました。本論文では、LLMとSEの長所と短所を探り、ユーザーが発するクエリを理解し、最新の情報を検索する上でのそれぞれの長所を強調する。両者の利点を活かしつつ、その限界を回避するために、SEとLLMの相互作用によって知識の洗練を促進する新しいフレームワーク、InteRを提案します。InteRでは、SEはLLMが生成したサマリーを用いてクエリ中の知識を改良し、LLMはSEが検索した文書を用いてプロンプトを改良することができます。この反復的な改良プロセスにより、SEとLLMの入力が増強され、より正確な検索が可能となる。2つの大規模検索ベンチマークを用いた実験評価により、InteRは、関連性判断の使用有無に関わらず、最新手法と比較して優れたゼロショット文書検索性能を達成することが実証された。

要約(オリジナル)

Information retrieval (IR) plays a crucial role in locating relevant resources from vast amounts of data, and its applications have evolved from traditional knowledge bases to modern search engines (SEs). The emergence of large language models (LLMs) has further revolutionized the field by enabling users to interact with search systems in natural language. In this paper, we explore the advantages and disadvantages of LLMs and SEs, highlighting their respective strengths in understanding user-issued queries and retrieving up-to-date information. To leverage the benefits of both paradigms while circumventing their limitations, we propose InteR, a novel framework that facilitates knowledge refinement through interaction between SEs and LLMs. InteR allows SEs to refine knowledge in query using LLM-generated summaries and enables LLMs to enhance prompts using SE-retrieved documents. This iterative refinement process augments the inputs of SEs and LLMs, leading to more accurate retrieval. Experimental evaluations on two large-scale retrieval benchmarks demonstrate that InteR achieves superior zero-shot document retrieval performance compared to state-of-the-art methods, regardless of the use of relevance judgement.

arxiv情報

著者 Jiazhan Feng,Chongyang Tao,Xiubo Geng,Tao Shen,Can Xu,Guodong Long,Dongyan Zhao,Daxin Jiang
発行日 2023-05-12 11:58:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.IR パーマリンク