要約
複数のドメインからのユーザー シーケンス データを活用するクロスドメイン シーケンシャル レコメンデーション (CSR) は、近年大きな注目を集めています。
ただし、既存の CSR 手法では、オリジン ユーザー データをドメイン間で共有する必要があり、これは一般データ保護規則 (GDPR) に違反します。
したがって、データのプライバシーを維持しながら、さまざまなドメインの知識を最大限に活用するには、フェデレーテッド ラーニング (FL) と CSR を組み合わせる必要があります。
それにもかかわらず、異なるドメインにわたる配列の特徴の不均一性は、FL の全体的なパフォーマンスに大きな影響を与えます。
この論文では、解きほぐされた表現学習による新しいフェデレーテッド クロスドメイン シーケンシャル レコメンデーション フレームワークである FedDCSR を提案します。
具体的には、ドメイン間の配列特徴の異質性に対処するために、ユーザー配列特徴をドメイン共有特徴とドメイン排他的特徴に分解する、ドメイン間配列表現解絡 (SRD) と呼ばれるアプローチを導入します。
さらに、ユーザー シーケンスに対してデータ拡張を実行することにより、ユーザーのより豊富なドメイン限定機能を学習するためのドメイン内対照情報最大 (CIM) 戦略を設計します。
3 つの現実世界のシナリオに関する広範な実験により、FedDCSR が既存のベースラインに比べて大幅な改善を達成できることが実証されました。
要約(オリジナル)
Cross-domain Sequential Recommendation (CSR) which leverages user sequence data from multiple domains has received extensive attention in recent years. However, the existing CSR methods require sharing origin user data across domains, which violates the General Data Protection Regulation (GDPR). Thus, it is necessary to combine federated learning (FL) and CSR to fully utilize knowledge from different domains while preserving data privacy. Nonetheless, the sequence feature heterogeneity across different domains significantly impacts the overall performance of FL. In this paper, we propose FedDCSR, a novel federated cross-domain sequential recommendation framework via disentangled representation learning. Specifically, to address the sequence feature heterogeneity across domains, we introduce an approach called inter-intra domain sequence representation disentanglement (SRD) to disentangle the user sequence features into domain-shared and domain-exclusive features. In addition, we design an intra domain contrastive infomax (CIM) strategy to learn richer domain-exclusive features of users by performing data augmentation on user sequences. Extensive experiments on three real-world scenarios demonstrate that FedDCSR achieves significant improvements over existing baselines.
arxiv情報
著者 | Hongyu Zhang,Dongyi Zheng,Xu Yang,Jiyuan Feng,Qing Liao |
発行日 | 2023-10-20 11:50:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google