Disentangled Contrastive Collaborative Filtering

要約

タイトル: Disentangled Contrastive Collaborative Filtering

要約:
– 最近の研究によると、グラフニューラルネットワーク(GNN)は協調フィルタリング(CF)の高次関係をモデル化するために有力であることが示されている。
– これに向けて、グラフ対比学習(GCL)は、強化されたユーザーとアイテムの表現を学習することにより、監督ラベルの不足問題に対処する能力を持っている。
– 多くのGCLベースのCFモデルが効果的であることが示されているが、2つの重要な問題が未解決のままである。
i) 多様な潜在的意図要因(例:家族パーティー用のショッピング、好きな色や商品のブランドなど)が、ユーザーアイテムの相互作用行動に影響することは、無視されている。
ii) 導入された非適応型の強化技術は、ノイズ情報に脆弱であり、モデルの堅牢性と自己監督信号を誤った取り込むリスクがあることを懸念させる。

– これらの制限に対応するために、Disentangled Contrastive Collaborative Filteringフレームワーク(DCCF)を提案する。
– DCCFは、グローバルコンテキストを備えた分離表現を学習することにより、自己監督信号からより細かい潜在因子を抽出し、強化によるノイズを軽減することができる。
– 最後に、パラメータ化されたインタラクションマスクジェネレータを使用して、クロスビュー対比学習タスクを導入し、自己監督強化を実現する。
– さまざまな公開データセット上の実験結果は、既存のソリューションと比較して、我々の方法の優越性を示している。
– 当社のモデル実装は、https://github.com/HKUDS/DCCFで公開されています。

要約(オリジナル)

Recent studies show that graph neural networks (GNNs) are prevalent to model high-order relationships for collaborative filtering (CF). Towards this research line, graph contrastive learning (GCL) has exhibited powerful performance in addressing the supervision label shortage issue by learning augmented user and item representations. While many of them show their effectiveness, two key questions still remain unexplored: i) Most existing GCL-based CF models are still limited by ignoring the fact that user-item interaction behaviors are often driven by diverse latent intent factors (e.g., shopping for family party, preferred color or brand of products); ii) Their introduced non-adaptive augmentation techniques are vulnerable to noisy information, which raises concerns about the model’s robustness and the risk of incorporating misleading self-supervised signals. In light of these limitations, we propose a Disentangled Contrastive Collaborative Filtering framework (DCCF) to realize intent disentanglement with self-supervised augmentation in an adaptive fashion. With the learned disentangled representations with global context, our DCCF is able to not only distill finer-grained latent factors from the entangled self-supervision signals but also alleviate the augmentation-induced noise. Finally, the cross-view contrastive learning task is introduced to enable adaptive augmentation with our parameterized interaction mask generator. Experiments on various public datasets demonstrate the superiority of our method compared to existing solutions. Our model implementation is released at the link https://github.com/HKUDS/DCCF.

arxiv情報

著者 Xubin Ren,Lianghao Xia,Jiashu Zhao,Dawei Yin,Chao Huang
発行日 2023-05-04 11:53:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.IR パーマリンク