Explainable CTR Prediction via LLM Reasoning

要約

レコメンデーションシステムは現代のユーザーエクスペリエンスに不可欠なものとなっているが、その意思決定プロセスには透明性が欠けている。既存の説明可能なレコメンデーション手法は、説明ジェネレータが基礎となるレコメンデーションモデルとは独立にトレーニングされる、ポストホックパラダイムに依存することによって妨げられている。このパラダイムは、データ構築において人手による多大な労力を必要とし、説明の信頼性に懸念をもたらす。本稿では、大規模言語モデルに基づく説明生成をCTR予測プロセスに直接統合する新しいフレームワークExpCTRを紹介する。強化学習における最近の進歩に触発され、我々は慎重に設計された2つの報酬メカニズムを採用する。LCアライメントは説明がユーザーの意図を反映することを保証し、ICアライメントは従来のIDベースのCTRモデルとの整合性を維持する。我々のアプローチは、LoRAと3段階の反復プロセスによる効率的な学習パラダイムを組み込んでいる。ExpCTRは、CTR予測と説明生成の間の相乗効果を促進しながら、大規模な説明データセットの必要性を回避する。実験結果は、ExpCTRが3つの実世界データセットにおいて推薦精度と解釈可能性の両方を大幅に向上させることを示している。

要約(オリジナル)

Recommendation Systems have become integral to modern user experiences, but lack transparency in their decision-making processes. Existing explainable recommendation methods are hindered by reliance on a post-hoc paradigm, wherein explanation generators are trained independently of the underlying recommender models. This paradigm necessitates substantial human effort in data construction and raises concerns about explanation reliability. In this paper, we present ExpCTR, a novel framework that integrates large language model based explanation generation directly into the CTR prediction process. Inspired by recent advances in reinforcement learning, we employ two carefully designed reward mechanisms, LC alignment, which ensures explanations reflect user intentions, and IC alignment, which maintains consistency with traditional ID-based CTR models. Our approach incorporates an efficient training paradigm with LoRA and a three-stage iterative process. ExpCTR circumvents the need for extensive explanation datasets while fostering synergy between CTR prediction and explanation generation. Experimental results demonstrate that ExpCTR significantly enhances both recommendation accuracy and interpretability across three real-world datasets.

arxiv情報

著者 Xiaohan Yu,Li Zhang,Chong Chen
発行日 2024-12-03 17:17:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.IR パーマリンク