SelfCF: A Simple Framework for Self-supervised Collaborative Filtering

要約

タイトル:SelfCF:自己教育付け協調フィルタリングのためのシンプルなフレームワーク

要約:

– 協調フィルタリングは、観測された相互作用からユーザーとアイテムの有益な潜在表現を学ぶために広く使用されています。
– 通常、共起行列からダミーの負の項目を作成して異なる項目を弁別することで、協調フィルタリングベースの方法が採用されます。しかし、大規模なデータセットで負のサンプリングを行うことは計算リソースを浪費することを意味し、非常に時間がかかります。
– この論文では、明示的なフィードバックがない推薦シナリオのために開発された「SelfCF」という自己教育付け協調フィルタリングフレームワークを提案しています。
– 基幹ネットワークに適用できる3つの出力摂動技術を提案し、従来のCFモデルとグラフベースのモデルの両方に適用できることを示しました。
– SelfCFは負のサンプリングなしで有益な表現を学ぶことができます。また、ネットワークはどの基幹ネットワークに貼り付けても正確性を高めることができます。
– 4つのデータセットにおける包括的な実験により、SelfCFは、2倍から4倍のトレーニング速度で、専門的なフレームワークにさらに優れた推薦精度を達成することができます。
– SelfCFは、自己教育付けフレームワークBUIRに比べて平均で最大17.79%の精度向上をもたらすことも示されます。

要約(オリジナル)

Collaborative filtering (CF) is widely used to learn informative latent representations of users and items from observed interactions. Existing CF-based methods commonly adopt negative sampling to discriminate different items. Training with negative sampling on large datasets is computationally expensive. Further, negative items should be carefully sampled under the defined distribution, in order to avoid selecting an observed positive item in the training dataset. Unavoidably, some negative items sampled from the training dataset could be positive in the test set. In this paper, we propose a self-supervised collaborative filtering framework (SelfCF), that is specially designed for recommender scenario with implicit feedback. The proposed SelfCF framework simplifies the Siamese networks and can be easily applied to existing deep-learning based CF models, which we refer to as backbone networks. The main idea of SelfCF is to augment the output embeddings generated by backbone networks, because it is infeasible to augment raw input of user/item ids. We propose and study three output perturbation techniques that can be applied to different types of backbone networks including both traditional CF models and graph-based models. The framework enables learning informative representations of users and items without negative samples, and is agnostic to the encapsulated backbones. We conduct comprehensive experiments on four datasets to show that our framework may achieve even better recommendation accuracy than the encapsulated supervised counterpart with a 2$\times$–4$\times$ faster training speed. We also show that SelfCF can boost up the accuracy by up to 17.79% on average, compared with a self-supervised framework BUIR.

arxiv情報

著者 Xin Zhou,Aixin Sun,Yong Liu,Jie Zhang,Chunyan Miao
発行日 2023-04-30 09:47:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.IR, cs.LG パーマリンク