Knowledge-Aware Query Expansion with Large Language Models for Textual and Relational Retrieval

要約

大規模言語モデル (LLM) は、情報検索を改善するために元のクエリを拡張するクエリ拡張を生成するために使用されてきました。
最近の研究では、文書コーパスにより基づいたクエリ拡張を生成するために、LLM に初期検索結果を提供することも検討されています。
ただし、これらの方法は主に、検索クエリとターゲット文書の間のテキストの類似性を高めることに焦点を当てており、文書の関係性は無視されています。
「ニコン F マウント レンズと互換性のある、野生動物の写真撮影に高評価のカメラを見つけてください」のようなクエリの場合、既存の方法では、意味的には似ているものの、構造的にはユーザーの意図とは無関係な拡張が生成される可能性があります。
テキスト要件とリレーショナル要件の両方を持つこのような半構造化クエリを処理するために、この論文では、ナレッジ グラフ (KG) からの構造化ドキュメント リレーションで LLM を強化する、知識を意識したクエリ拡張フレームワークを提案します。
既存の KG ベースの方法におけるエンティティベースのスコアリングの制限にさらに対処するために、文書テキストをリッチな KG ノード表現として活用し、知識認識検索 (KAR) に文書ベースの関係フィルタリングを使用します。
多様なドメインの 3 つのデータセットに対する広範な実験により、テキストおよびリレーショナルの半構造化検索に関する最先端のベースラインと比較した場合のこの方法の利点が示されています。

要約(オリジナル)

Large language models (LLMs) have been used to generate query expansions augmenting original queries for improving information search. Recent studies also explore providing LLMs with initial retrieval results to generate query expansions more grounded to document corpus. However, these methods mostly focus on enhancing textual similarities between search queries and target documents, overlooking document relations. For queries like ‘Find me a highly rated camera for wildlife photography compatible with my Nikon F-Mount lenses’, existing methods may generate expansions that are semantically similar but structurally unrelated to user intents. To handle such semi-structured queries with both textual and relational requirements, in this paper we propose a knowledge-aware query expansion framework, augmenting LLMs with structured document relations from knowledge graph (KG). To further address the limitation of entity-based scoring in existing KG-based methods, we leverage document texts as rich KG node representations and use document-based relation filtering for our Knowledge-Aware Retrieval (KAR). Extensive experiments on three datasets of diverse domains show the advantages of our method compared against state-of-the-art baselines on textual and relational semi-structured retrieval.

arxiv情報

著者 Yu Xia,Junda Wu,Sungchul Kim,Tong Yu,Ryan A. Rossi,Haoliang Wang,Julian McAuley
発行日 2024-10-17 17:03:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク