要約
最近の研究では、拡散モデルはそのノイズ除去の性質により、レコメンダー システムにおけるユーザーとアイテムのインタラクションの生成プロセスをモデル化するのに適していることが示されています。
ただし、既存の拡散モデルベースのレコメンダー システムは、正確なレコメンデーションを実現するための重要な協調シグナルを含む高次の接続を明示的に活用していません。
このギャップに対処するために、我々は、マルチホップ隣接信号とともに協調信号を最大限に活用できる、新しい拡散モデルベースの協調フィルタリング(CF)手法である CF-Diff を提案します。
具体的には、順拡散プロセスはユーザーとアイテムのインタラクションにランダム ノイズを追加し、逆ノイズ除去プロセスはクロスアテンション ガイド付きマルチホップ オートエンコーダー (CAM-AE) と呼ばれる独自の学習モデルに対応して、元のユーザーを徐々に回復します。
-アイテムの相互作用。
CAM-AE は 2 つのコア モジュールで構成されます。1) アテンション支援 AE モジュール。モデルの複雑さを管理可能なレベルに保ちながら、ユーザーとアイテムのインタラクションの潜在的な表現を正確に学習します。2) マルチホップ クロス アテンション モジュール。
高次の接続情報を賢明に利用して、強化された協調信号を捕捉します。
3 つの現実世界のデータセットに対する包括的な実験を通じて、CF-Diff が (a) 優れている: ベンチマーク推奨手法を上回っており、最良の競合他社と比較して最大 7.29% の顕著な利益を達成している、(b) 理論的に検証されている: 計算量を削減しながらも、
私たちのモデルによって生成されたエンベディングが元のクロスアテンションからのエンベディングに厳密に近似していることを保証し、(c) スケーラブル: ユーザーまたはアイテムの数に線形にスケールする計算効率を証明します。
要約(オリジナル)
A recent study has shown that diffusion models are well-suited for modeling the generative process of user-item interactions in recommender systems due to their denoising nature. However, existing diffusion model-based recommender systems do not explicitly leverage high-order connectivities that contain crucial collaborative signals for accurate recommendations. Addressing this gap, we propose CF-Diff, a new diffusion model-based collaborative filtering (CF) method, which is capable of making full use of collaborative signals along with multi-hop neighbors. Specifically, the forward-diffusion process adds random noise to user-item interactions, while the reverse-denoising process accommodates our own learning model, named cross-attention-guided multi-hop autoencoder (CAM-AE), to gradually recover the original user-item interactions. CAM-AE consists of two core modules: 1) the attention-aided AE module, responsible for precisely learning latent representations of user-item interactions while preserving the model’s complexity at manageable levels, and 2) the multi-hop cross-attention module, which judiciously harnesses high-order connectivity information to capture enhanced collaborative signals. Through comprehensive experiments on three real-world datasets, we demonstrate that CF-Diff is (a) Superior: outperforming benchmark recommendation methods, achieving remarkable gains up to 7.29% compared to the best competitor, (b) Theoretically-validated: reducing computations while ensuring that the embeddings generated by our model closely approximate those from the original cross-attention, and (c) Scalable: proving the computational efficiency that scales linearly with the number of users or items.
arxiv情報
著者 | Yu Hou,Jin-Duk Park,Won-Yong Shin |
発行日 | 2024-04-22 14:49:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google