KTRL+F: Knowledge-Augmented In-Document Search

要約

新しい問題 KTRL+F を導入します。これは知識拡張された文書内検索タスクであり、単一の自然なクエリを通じて外部ソースを認識しながら文書内のすべての意味論的ターゲットをリアルタイムで識別する必要があります。
このタスクは、文書内検索に特有の次の課題に対処します。1) クエリとターゲットの間の意味論的なギャップを埋めるために、ターゲットに関する追加情報を拡張して使用するために文書外の知識を利用すること、および 2) クエリとターゲットの間のリアルタイムの適用性とのバランスをとること。
パフォーマンス。
KTRL+F のさまざまなベースラインを分析したところ、幻覚、低遅延、外部知識の活用の難しさなど、既存のモデルには限界があることがわかりました。
したがって、フレーズ埋め込みに埋め込まれた外部知識を単純に強化することによって、速度とパフォーマンスの間の有望なバランスを示す、知識拡張フレーズ検索モデルを提案します。
さらに、KTRL+F を解決することでユーザーの検索エクスペリエンスが向上するかどうかを検証するためにユーザー調査を実施します。
これは、単純なモデルを使用した場合でも、ユーザーが少ないクエリで検索時間を短縮し、証拠を収集するために他のソースへの余分なアクセスを減らすことができることを示しています。
私たちは研究コミュニティに対し、より効率的な文書内情報へのアクセスを強化するために KTRL+F に取り組むことを奨励します。

要約(オリジナル)

We introduce a new problem KTRL+F, a knowledge-augmented in-document search task that necessitates real-time identification of all semantic targets within a document with the awareness of external sources through a single natural query. This task addresses following unique challenges for in-document search: 1) utilizing knowledge outside the document for extended use of additional information about targets to bridge the semantic gap between the query and the targets, and 2) balancing between real-time applicability with the performance. We analyze various baselines in KTRL+F and find there are limitations of existing models, such as hallucinations, low latency, or difficulties in leveraging external knowledge. Therefore we propose a Knowledge-Augmented Phrase Retrieval model that shows a promising balance between speed and performance by simply augmenting external knowledge embedding in phrase embedding. Additionally, we conduct a user study to verify whether solving KTRL+F can enhance search experience of users. It demonstrates that even with our simple model users can reduce the time for searching with less queries and reduced extra visits to other sources for collecting evidence. We encourage the research community to work on KTRL+F to enhance more efficient in-document information access.

arxiv情報

著者 Hanseok Oh,Haebin Shin,Miyoung Ko,Hyunji Lee,Minjoon Seo
発行日 2023-11-16 09:38:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク