Exploiting Graph Structured Cross-Domain Representation for Multi-Domain Recommendation

要約

マルチドメイン レコメンデーション システムは、クロスドメイン表現学習と積極的な知識伝達の恩恵を受けます。
どちらも、入力データの特定のモデル化 (つまり、バラバラの履歴) を導入するか、専用のトレーニング体制を試すことで達成できます。
同時に、ドメインを個別の入力ソースとして扱うことは、ドメイン間に自然に存在する相互作用を捉えられないため、制限になります。
この作業では、グラフ ニューラル ネットワークを使用して、連続したユーザーのインタラクションのマルチドメイン表現を効率的に学習します。
MAGRec (Multi-domain Graph-based Recommender の略) と呼ばれるメソッドのコンテキスト情報として、一時的なドメイン内およびドメイン間の相互作用を使用します。
マルチドメイン設定ですべての関係をより適切に把握するために、2 つのグラフベースの連続表現を同時に学習します。最近のユーザーの関心についてはドメイン ガイド、長期的な関心については一般です。
このアプローチは、複数のドメインからの否定的な知識移転の問題を軽減し、全体的な表現を改善するのに役立ちます。
MAGRec が一貫して最新の方法よりも優れているさまざまなシナリオで、公開されているデータセットで実験を行います。
さらに、我々 はアブレーション研究を提供し、我々 の方法のさらなる拡張について説明します。

要約(オリジナル)

Multi-domain recommender systems benefit from cross-domain representation learning and positive knowledge transfer. Both can be achieved by introducing a specific modeling of input data (i.e. disjoint history) or trying dedicated training regimes. At the same time, treating domains as separate input sources becomes a limitation as it does not capture the interplay that naturally exists between domains. In this work, we efficiently learn multi-domain representation of sequential users’ interactions using graph neural networks. We use temporal intra- and inter-domain interactions as contextual information for our method called MAGRec (short for Multi-domAin Graph-based Recommender). To better capture all relations in a multi-domain setting, we learn two graph-based sequential representations simultaneously: domain-guided for recent user interest, and general for long-term interest. This approach helps to mitigate the negative knowledge transfer problem from multiple domains and improve overall representation. We perform experiments on publicly available datasets in different scenarios where MAGRec consistently outperforms state-of-the-art methods. Furthermore, we provide an ablation study and discuss further extensions of our method.

arxiv情報

著者 Alejandro Ariza-Casabona,Bartlomiej Twardowski,Tri Kurniawan Wijaya
発行日 2023-02-22 13:58:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク