GaVaMoE: Gaussian-Variational Gated Mixture of Experts for Explainable Recommendation

要約

大規模言語モデルベースの説明可能なレコメンデーション (LLM ベースの ER) システムは、レコメンデーションに対する人間のような説明の生成に有望です。
ただし、ユーザーとアイテムの共同設定のモデリング、説明のパーソナライズ、およびまばらなユーザーとアイテムの対話の処理において課題に直面しています。
これらの問題に対処するために、説明可能な推奨を実現するための新しいガウス変分ゲート型専門家混合フレームワークである GaVaMoE を提案します。
GaVaMoE は 2 つの重要なコンポーネントを導入しています。(1) 変動オートエンコーダ (VAE) とガウス混合モデル (GMM) を使用して、ユーザーとアイテムの複雑な共同嗜好をキャプチャし、事前トレーニング済みのマルチゲート メカニズムとして機能する評価再構成モジュール。
(2) 高度にパーソナライズされた説明を生成するためのマルチゲート メカニズムと組み合わせた一連のきめの細かいエキスパート モデル。
VAE コンポーネントはユーザーとアイテムのインタラクションにおける潜在的な要因をモデル化し、GMM は同様の行動を持つユーザーをクラスター化します。
各クラスターはマルチゲート メカニズムのゲートに対応し、ユーザーとアイテムのペアを適切なエキスパート モデルにルーティングします。
このアーキテクチャにより、GaVaMoE は特定のユーザーのタイプや好みに合わせた説明を生成し、ユーザーの類似性を活用してデータの希薄性を軽減できます。
3 つの現実世界のデータセットに対する広範な実験により、GaVaMoE が説明の品質、パーソナライゼーション、一貫性の点で既存の手法を大幅に上回ることが実証されました。
特に、GaVaMoE は、ユーザーとアイテムのやり取りがまばらなシナリオでも堅牢なパフォーマンスを示し、履歴データが限られているユーザーに対しても高品質の説明を維持します。

要約(オリジナル)

Large language model-based explainable recommendation (LLM-based ER) systems show promise in generating human-like explanations for recommendations. However, they face challenges in modeling user-item collaborative preferences, personalizing explanations, and handling sparse user-item interactions. To address these issues, we propose GaVaMoE, a novel Gaussian-Variational Gated Mixture of Experts framework for explainable recommendation. GaVaMoE introduces two key components: (1) a rating reconstruction module that employs Variational Autoencoder (VAE) with a Gaussian Mixture Model (GMM) to capture complex user-item collaborative preferences, serving as a pre-trained multi-gating mechanism; and (2) a set of fine-grained expert models coupled with the multi-gating mechanism for generating highly personalized explanations. The VAE component models latent factors in user-item interactions, while the GMM clusters users with similar behaviors. Each cluster corresponds to a gate in the multi-gating mechanism, routing user-item pairs to appropriate expert models. This architecture enables GaVaMoE to generate tailored explanations for specific user types and preferences, mitigating data sparsity by leveraging user similarities. Extensive experiments on three real-world datasets demonstrate that GaVaMoE significantly outperforms existing methods in explanation quality, personalization, and consistency. Notably, GaVaMoE exhibits robust performance in scenarios with sparse user-item interactions, maintaining high-quality explanations even for users with limited historical data.

arxiv情報

著者 Fei Tang,Yongliang Shen,Hang Zhang,Zeqi Tan,Wenqi Zhang,Guiyang Hou,Kaitao Song,Weiming Lu,Yueting Zhuang
発行日 2024-10-15 17:59:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク