Explain like I am BM25: Interpreting a Dense Model’s Ranked-List with a Sparse Approximation

要約

タイトル:BM25のように説明する:スパースな近似を用いた密なモデルのランク付けリストの解釈

要約:
– 全文検索における意味解析を含む密なドキュメント表現により、ニューラル検索モデル(NRM)は統計的なモデルよりも優れた性能を発揮することが示されている。
– しかし、これらのモデルは明示的な用語のマッチングに依存しないため、解釈性に問題がある。
– 我々は、ローカルなクエリ説明の形として、等価なクエリの概念を導入することで、NRMの結果と等価なクエリを持つ疎な検索システムの結果セットの類似度を最大化することによってこれを解決する。
– そして、この方法をRM3ベースのクエリ拡張などの既存の方法と比較し、それぞれのアプローチで生成される用語の違いや検索効果の違いを対比する。

要約(オリジナル)

Neural retrieval models (NRMs) have been shown to outperform their statistical counterparts owing to their ability to capture semantic meaning via dense document representations. These models, however, suffer from poor interpretability as they do not rely on explicit term matching. As a form of local per-query explanations, we introduce the notion of equivalent queries that are generated by maximizing the similarity between the NRM’s results and the result set of a sparse retrieval system with the equivalent query. We then compare this approach with existing methods such as RM3-based query expansion and contrast differences in retrieval effectiveness and in the terms generated by each approach.

arxiv情報

著者 Michael Llordes,Debasis Ganguly,Sumit Bhatia,Chirag Agarwal
発行日 2023-04-25 07:58:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.IR パーマリンク