Breaking Determinism: Fuzzy Modeling of Sequential Recommendation Using Discrete State Space Diffusion Model

要約

逐次レコメンデーション(SR)は、ユーザの過去の行動シーケンスに基づいて、ユーザが興味を持ちそうなアイテムを予測することを目的としている。我々は、新しい情報理論的観点からSRを再検討し、従来の逐次的モデリング手法が、ユーザー行動のランダム性と予測不可能性を適切に捉えることができないことを発見した。ファジィ情報処理理論に触発された本論文では、この限界を克服し、ユーザーの真の興味の進化をより良く捉えるために、インタラクションシーケンスのファジィ集合を用いるDDSRモデルを導入する。形式的には離散状態空間における拡散遷移過程に基づいており、連続領域で動作するDDPMのような一般的な拡散モデルとは異なる。情報損失を避けるために、任意のノイズを導入する代わりに構造化遷移を使用し、離散データに適している。さらに、広大な離散空間による行列変換の非効率性に対処するため、アイテムIDの代わりに量子化またはRQ-VAEから得られた意味ラベルを使用し、効率を高め、コールドスタートの問題を改善する。3つの公開ベンチマークデータセットを用いたテストにより、DDSRは様々な設定において既存の最先端手法を凌駕することが示され、SRタスクの処理におけるDDSRの可能性と有効性が実証された。

要約(オリジナル)

Sequential recommendation (SR) aims to predict items that users may be interested in based on their historical behavior sequences. We revisit SR from a novel information-theoretic perspective and find that conventional sequential modeling methods fail to adequately capture the randomness and unpredictability of user behavior. Inspired by fuzzy information processing theory, this paper introduces the DDSR model, which uses fuzzy sets of interaction sequences to overcome the limitations and better capture the evolution of users’ real interests. Formally based on diffusion transition processes in discrete state spaces, which is unlike common diffusion models such as DDPM that operate in continuous domains. It is better suited for discrete data, using structured transitions instead of arbitrary noise introduction to avoid information loss. Additionally, to address the inefficiency of matrix transformations due to the vast discrete space, we use semantic labels derived from quantization or RQ-VAE to replace item IDs, enhancing efficiency and improving cold start issues. Testing on three public benchmark datasets shows that DDSR outperforms existing state-of-the-art methods in various settings, demonstrating its potential and effectiveness in handling SR tasks.

arxiv情報

著者 Wenjia Xie,Hao Wang,Luankang Zhang,Rui Zhou,Defu Lian,Enhong Chen
発行日 2024-11-01 07:55:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク