Graph Augmentation for Recommendation

要約

対照学習によるグラフ拡張は、ラベル付きデータが限られている場合でも、表現力豊かなユーザー表現を学習できるため、レコメンデーション システムの分野で大きな注目を集めています。
ただし、既存の GCL モデルを現実世界のレコメンデーション環境に直接適用すると、課題が生じます。
対処すべき主な問題が 2 つあります。
まず、対照学習でデータ ノイズを考慮しないと、自己教師信号にノイズが多くなり、パフォーマンスの低下につながる可能性があります。
第 2 に、既存の GCL アプローチの多くはグラフ ニューラル ネットワーク (GNN) アーキテクチャに依存しており、非適応的なメッセージ パッシングによる過剰な平滑化の問題が発生する可能性があります。
これらの課題に対処するために、私たちは GraphAug と呼ばれる原則に基づいたフレームワークを提案します。
このフレームワークは、ノイズ除去された自己教師あり信号を生成する堅牢なデータ オーグメンターを導入し、レコメンダー システムを強化します。
GraphAug フレームワークには、グラフ情報ボトルネック (GIB) の正規化された拡張パラダイムが組み込まれており、有益な自己監視情報を自動的に抽出し、コントラスト ビューの生成を適応的に調整します。
現実世界のデータセットでの厳密な実験を通じて、私たちは新しい GraphAug モデルのパフォーマンスを徹底的に評価しました。
結果は、既存のベースライン手法に対するその優位性を一貫して明らかにしています。
私たちのモデルのソース コードは、https://github.com/HKUDS/GraphAug で公開されています。

要約(オリジナル)

Graph augmentation with contrastive learning has gained significant attention in the field of recommendation systems due to its ability to learn expressive user representations, even when labeled data is limited. However, directly applying existing GCL models to real-world recommendation environments poses challenges. There are two primary issues to address. Firstly, the lack of consideration for data noise in contrastive learning can result in noisy self-supervised signals, leading to degraded performance. Secondly, many existing GCL approaches rely on graph neural network (GNN) architectures, which can suffer from over-smoothing problems due to non-adaptive message passing. To address these challenges, we propose a principled framework called GraphAug. This framework introduces a robust data augmentor that generates denoised self-supervised signals, enhancing recommender systems. The GraphAug framework incorporates a graph information bottleneck (GIB)-regularized augmentation paradigm, which automatically distills informative self-supervision information and adaptively adjusts contrastive view generation. Through rigorous experimentation on real-world datasets, we thoroughly assessed the performance of our novel GraphAug model. The outcomes consistently unveil its superiority over existing baseline methods. The source code for our model is publicly available at: https://github.com/HKUDS/GraphAug.

arxiv情報

著者 Qianru Zhang,Lianghao Xia,Xuheng Cai,Siuming Yiu,Chao Huang,Christian S. Jensen
発行日 2024-03-25 11:47:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IR, cs.LG パーマリンク