Disentangled Contrastive Collaborative Filtering

要約

タイトル:Disentangled Contrastive Collaborative Filtering

要約:
– 過去の研究によると、グラフニューラルネットワーク(GNN)は、協調フィルタリング(CF)において高次の関係をモデル化するために広く使用されている。
– GCL(Graph Contrastive Learning)は、拡張されたユーザーとアイテムの表現を学習することで、監視ラベル不足の問題に対処することによって強力な性能を示している。
– これらの手法の多くが有効であることが示されているが、2つの問題が未解決のままである。
1) 既存のGCLベースのCFモデルの多くは、ユーザー-アイテム間の相互作用の行動が多様な潜在的な意図因子によって駆動されることを無視している。
2) 彼らが導入した非適応型の拡張技術は、ノイズの情報に対して脆弱であり、モデルの堅牢性と自己監督信号を誤った情報を組み込むリスクを引き起こすことが懸念される。
– そこで、我々は、自己監督的な拡張手法による意図の自己分離を実現するDisentangled Contrastive Collaborative Filteringフレームワーク(DCCF)を提案する。
– 学習された分離された表現とグローバルコンテキストにより、DCCFは、交互作用の自己監督信号からより細かい潜在的な因子を抽出し、拡張によって引き起こされるノイズを軽減することができる。
– 経験により、既存のソリューションと比較して、私たちの方法の優越性が示されている。
– 我々のモデルは、https://github.com/HKUDS/DCCFからダウンロード可能である。

要約(オリジナル)

Recent studies show that graph neural networks (GNNs) are prevalent to model high-order relationships for collaborative filtering (CF). Towards this research line, graph contrastive learning (GCL) has exhibited powerful performance in addressing the supervision label shortage issue by learning augmented user and item representations. While many of them show their effectiveness, two key questions still remain unexplored: i) Most existing GCL-based CF models are still limited by ignoring the fact that user-item interaction behaviors are often driven by diverse latent intent factors (e.g., shopping for family party, preferred color or brand of products); ii) Their introduced non-adaptive augmentation techniques are vulnerable to noisy information, which raises concerns about the model’s robustness and the risk of incorporating misleading self-supervised signals. In light of these limitations, we propose a Disentangled Contrastive Collaborative Filtering framework (DCCF) to realize intent disentanglement with self-supervised augmentation in an adaptive fashion. With the learned disentangled representations with global context, our DCCF is able to not only distill finer-grained latent factors from the entangled self-supervision signals but also alleviate the augmentation-induced noise. Finally, the cross-view contrastive learning task is introduced to enable adaptive augmentation with our parameterized interaction mask generator. Experiments on various public datasets demonstrate the superiority of our method compared to existing solutions. Our model implementation is released at the link https://github.com/HKUDS/DCCF.

arxiv情報

著者 Xubin Ren,Lianghao Xia,Jiashu Zhao,Dawei Yin,Chao Huang
発行日 2023-05-07 19:23:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.IR パーマリンク