Item Graph Convolution Collaborative Filtering for Inductive Recommendations

要約

グラフ畳み込みネットワーク (GCN) は、ユーザーとアイテムの相互作用を 2 部グラフのエッジとして解釈する、レコメンダー システム アルゴリズムの構築におけるコア コンポーネントとして最近採用されています。
ただし、サイド情報がない場合、既存のモデルの大部分は、ユーザーの埋め込みをランダムに初期化し、トレーニング プロセス全体で最適化するアプローチを採用しています。
この戦略により、これらのアルゴリズムは本質的に伝達的になり、トレーニング時に見えなかったユーザーの予測を生成する能力が低下します。
この問題に対処するために、ユーザーの観点から帰納的であると同時に、暗黙的なユーザーアイテムの相互作用データのみに依存する、畳み込みベースのアルゴリズムを提案します。
二部相互作用ネットワークの加重射影によるアイテム-アイテム グラフの構築を提案し、畳み込みを使用して高次の関連付けをアイテムの埋め込みに注入し、ユーザー表現をユーザーが相互作用したアイテムの加重和として構築することを提案します。
ユーザーごとに個別の埋め込みをトレーニングするわけではありませんが、私たちのアプローチは、4 つの実世界のデータセットの変換ベースラインに関して最先端の推奨パフォーマンスを達成し、同時に堅牢な誘導パフォーマンスを示します。

要約(オリジナル)

Graph Convolutional Networks (GCN) have been recently employed as core component in the construction of recommender system algorithms, interpreting user-item interactions as the edges of a bipartite graph. However, in the absence of side information, the majority of existing models adopt an approach of randomly initialising the user embeddings and optimising them throughout the training process. This strategy makes these algorithms inherently transductive, curtailing their ability to generate predictions for users that were unseen at training time. To address this issue, we propose a convolution-based algorithm, which is inductive from the user perspective, while at the same time, depending only on implicit user-item interaction data. We propose the construction of an item-item graph through a weighted projection of the bipartite interaction network and to employ convolution to inject higher order associations into item embeddings, while constructing user representations as weighted sums of the items with which they have interacted. Despite not training individual embeddings for each user our approach achieves state of-the-art recommendation performance with respect to transductive baselines on four real-world datasets, showing at the same time robust inductive performance.

arxiv情報

著者 Edoardo D’Amico,Khalil Muhammad,Elias Tragos,Barry Smyth,Neil Hurley,Aonghus Lawlor
発行日 2023-03-28 12:58:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IR, cs.LG パーマリンク