Disentangled Contrastive Collaborative Filtering

要約

最近の研究では、協調フィルタリング (CF) の高次関係をモデル化するためにグラフ ニューラル ネットワーク (GNN) が普及していることが示されています。
この研究分野に向けて、グラフ対比学習 (GCL) は、拡張されたユーザーとアイテムの表現を学習することで、監視ラベル不足の問題に対処する強力なパフォーマンスを示しました。
それらの多くは有効性を示していますが、次の 2 つの重要な疑問が依然として未解明のままです。 i) 既存の GCL ベースの CF モデルのほとんどは、ユーザーとアイテムのインタラクション動作がさまざまな潜在的な意図要因 (例: 買い物など) によって駆動されることが多いという事実を無視しているため、依然として制限されています。
家族のパーティー、製品の好みの色またはブランド)。
ii) 導入された非適応拡張技術はノイズの多い情報に対して脆弱であり、モデルの堅牢性と誤解を招く自己教師信号を組み込むリスクについての懸念が生じます。
これらの制限を考慮して、適応的な方法で自己教師付き拡張による意図のもつれの解消を実現するための、もつれの解けたコントラスト協調フィルタリング フレームワーク (DCCF) を提案します。
グローバルコンテキストを備えた学習されたもつれ解除された表現により、私たちのDCCFは、もつれた自己監視信号からよりきめの細かい潜在因子を抽出できるだけでなく、拡張によって引き起こされるノイズを軽減することもできます。
最後に、クロスビュー対比学習タスクが導入され、パラメーター化されたインタラクション マスク ジェネレーターによる適応拡張が可能になります。
さまざまな公開データセットでの実験により、既存のソリューションと比較して私たちの方法の優位性が実証されています。
私たちのモデルの実装は、リンク https://github.com/HKUDS/DCCF でリリースされています。

要約(オリジナル)

Recent studies show that graph neural networks (GNNs) are prevalent to model high-order relationships for collaborative filtering (CF). Towards this research line, graph contrastive learning (GCL) has exhibited powerful performance in addressing the supervision label shortage issue by learning augmented user and item representations. While many of them show their effectiveness, two key questions still remain unexplored: i) Most existing GCL-based CF models are still limited by ignoring the fact that user-item interaction behaviors are often driven by diverse latent intent factors (e.g., shopping for family party, preferred color or brand of products); ii) Their introduced non-adaptive augmentation techniques are vulnerable to noisy information, which raises concerns about the model’s robustness and the risk of incorporating misleading self-supervised signals. In light of these limitations, we propose a Disentangled Contrastive Collaborative Filtering framework (DCCF) to realize intent disentanglement with self-supervised augmentation in an adaptive fashion. With the learned disentangled representations with global context, our DCCF is able to not only distill finer-grained latent factors from the entangled self-supervision signals but also alleviate the augmentation-induced noise. Finally, the cross-view contrastive learning task is introduced to enable adaptive augmentation with our parameterized interaction mask generator. Experiments on various public datasets demonstrate the superiority of our method compared to existing solutions. Our model implementation is released at the link https://github.com/HKUDS/DCCF.

arxiv情報

著者 Xubin Ren,Lianghao Xia,Jiashu Zhao,Dawei Yin,Chao Huang
発行日 2023-07-12 12:29:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク