要約
クエリ自動補完 (QAC) は、特定のクエリ プレフィックスに対して妥当な補完を提案することを目的としています。
従来、QAC システムは、履歴クエリ ログから厳選された試行を活用して、最も一般的な完了を提案してきました。
これに関連して、どの QAC システムでも処理が難しい 2 つの特定のシナリオがあります。それは、短いプレフィックス (本質的に曖昧です) と目に見えないプレフィックスです。
最近、これら 2 つの課題に対処するためのコンテキストとして以前のセッションのクエリを活用する、パーソナライズされた自然言語生成 (NLG) モデルが提案されています。
ただし、このような NLG モデルには 2 つの欠点があります。(1) 以前のセッション クエリの一部にはノイズが多く、現在のプレフィックスに対するユーザーの意図とは無関係である可能性があります。(2) NLG モデルは過去のクエリの人気を直接組み込むことができません。
これは、QAC の新しい NLG モデルである Trie-NLG を提案する動機となりました。これは、トライからの人気シグナルと、以前のセッション クエリからのパーソナライゼーション シグナルを共同で活用します。
最近のセッション クエリと上位のトライ完了で構成される豊富なコンテキストでプレフィックスを強化することにより、Trie-NLG モデルをトレーニングします。
このシンプルなモデリング アプローチは、トライベースおよび NLG ベースのアプローチの制限を克服し、最先端のパフォーマンスをもたらします。
2 つの大規模な QAC データセットを使用して Trie-NLG モデルを評価します。
平均して、私たちのモデルは、一般的なトライベースのルックアップ方法と強力な BART ベースのベースライン方法と比較して、MRR でそれぞれ最大 57% および最大 14% の大幅な向上を達成します。
私たちはコードを公開しています。
要約(オリジナル)
Query auto-completion (QAC) aims at suggesting plausible completions for a given query prefix. Traditionally, QAC systems have leveraged tries curated from historical query logs to suggest most popular completions. In this context, there are two specific scenarios that are difficult to handle for any QAC system: short prefixes (which are inherently ambiguous) and unseen prefixes. Recently, personalized Natural Language Generation (NLG) models have been proposed to leverage previous session queries as context for addressing these two challenges. However, such NLG models suffer from two drawbacks: (1) some of the previous session queries could be noisy and irrelevant to the user intent for the current prefix, and (2) NLG models cannot directly incorporate historical query popularity. This motivates us to propose a novel NLG model for QAC, Trie-NLG, which jointly leverages popularity signals from trie and personalization signals from previous session queries. We train the Trie-NLG model by augmenting the prefix with rich context comprising of recent session queries and top trie completions. This simple modeling approach overcomes the limitations of trie-based and NLG-based approaches and leads to state-of-the-art performance. We evaluate the Trie-NLG model using two large QAC datasets. On average, our model achieves huge ~57% and ~14% boost in MRR over the popular trie-based lookup and the strong BART-based baseline methods, respectively. We make our code publicly available.
arxiv情報
著者 | Kaushal Kumar Maurya,Maunendra Sankar Desarkar,Manish Gupta,Puneet Agrawal |
発行日 | 2023-07-28 10:17:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google