PRECTR: A Synergistic Framework for Integrating Personalized Search Relevance Matching and CTR Prediction

要約

検索推奨システムの2つの主要なタスクは、検索関連のマッチングとクリックスルーレート(CTR)予測です。前者は、ユーザークエリに関連するアイテムを探すことに焦点を当てていますが、後者はユーザーの関心をよりよく一致させる可能性があります。
通常、以前の研究では、CTRと検索の関連性を個別に予測するために2つのモデルを開発し、2つの出力の融合に基づいて候補アイテムをランキングします。
ただし、このような分割征服パラダイムは、異なるモデル間で矛盾を生み出します。
一方、検索関連モデルは、主に異なるユーザー間のパーソナライズされた違いを無視しながら、客観的なテキストの一致の程度に集中し、モデルのパフォーマンスが制限されます。
これらの問題に取り組むために、統一されたパーソナライズされた検索関連のマッチングとCTR予測融合モデル(PRECTR)を提案します。
具体的には、条件付き確率融合メカニズムに基づいて、PRECTRはCTRの予測と検索関連性を1つのフレームワークに統合して、2つのモジュールの相互作用と一貫性を強化します。
ただし、CTRバイナリ分類の損失を直接最適化すると、Fusionモデルの収束に課題をもたらし、検索関連性に関係なく、CTRの高いアイテムの露出を無期限に促進する可能性があります。
したがって、モデルの収束を加速し、無関係なアイテムの推奨を抑制するために、2段階のトレーニングとセマンティックの一貫性の正則化をさらに導入します。
最後に、さまざまなユーザーが関連性の好みを変えている可能性があることを認めて、それに応じて、類似のクエリに対する過去のユーザーの好みを分析し、異なる候補項目のカスタマイズされたインセンティブを分析することにより、現在のユーザーの関連性の好みを評価しました。
生産データセットとオンラインのA/Bテストでの広範な実験結果は、提案されたPRECTR法の有効性と優位性を示しています。

要約(オリジナル)

The two primary tasks in the search recommendation system are search relevance matching and click-through rate (CTR) prediction — the former focuses on seeking relevant items for user queries whereas the latter forecasts which item may better match user interest. Prior research typically develops two models to predict the CTR and search relevance separately, then ranking candidate items based on the fusion of the two outputs. However, such a divide-and-conquer paradigm creates the inconsistency between different models. Meanwhile, the search relevance model mainly concentrates on the degree of objective text matching while neglecting personalized differences among different users, leading to restricted model performance. To tackle these issues, we propose a unified Personalized Search RElevance Matching and CTR Prediction Fusion Model(PRECTR). Specifically, based on the conditional probability fusion mechanism, PRECTR integrates the CTR prediction and search relevance matching into one framework to enhance the interaction and consistency of the two modules. However, directly optimizing CTR binary classification loss may bring challenges to the fusion model’s convergence and indefinitely promote the exposure of items with high CTR, regardless of their search relevance. Hence, we further introduce two-stage training and semantic consistency regularization to accelerate the model’s convergence and restrain the recommendation of irrelevant items. Finally, acknowledging that different users may have varied relevance preferences, we assessed current users’ relevance preferences by analyzing past users’ preferences for similar queries and tailored incentives for different candidate items accordingly. Extensive experimental results on our production dataset and online A/B testing demonstrate the effectiveness and superiority of our proposed PRECTR method.

arxiv情報

著者 Rong Chen,Shuzhi Cao,Ailong He,Shuguang Han,Jufeng Chen
発行日 2025-03-26 14:38:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク