Federated Latent Factor Model for Bias-Aware Recommendation with Privacy-Preserving

要約

推奨システム(RS)は、ユーザーにパーソナライズされたアイテムの推奨事項を提供し、全体的なエクスペリエンスを向上させることを目的としています。
従来のRSSは、中央サーバー上のすべてのユーザーデータを収集および処理します。
ただし、この集中化されたアプローチは、データ侵害とプライバシーリークのリスクを高めるため、プライバシーに敏感なユーザーにますます容認できなくなっているため、大きなプライバシーの懸念を引き起こします。
これらのプライバシーの課題に対処するために、Federated LearningはRSSに統合されており、ユーザーデータが安全であることを保証しています。
集中RSSでは、評価バイアスの問題は、すべてのユーザーの生の相互作用データを共同で分析することにより、効果的に対処されます。
ただし、プライバシーを提供する制約のために生データがアクセスできないため、これはフェデレートRSSで重要な課題になります。
この問題を克服するために、フェデレートバイアスアウェア潜在因子(FBALF)モデルを提案します。
FBALFでは、トレーニングバイアスがすべてのローカルモデルの損失関数に明示的に組み込まれ、データプライバシーを損なうことなく評価バイアスを効果的に排除できるようになります。
3つの実際のデータセットで実施された広範な実験は、FBALFが他の最先端のフェデレーションRSSと比較して、推奨の精度が大幅に高いことを示しています。

要約(オリジナル)

A recommender system (RS) aims to provide users with personalized item recommendations, enhancing their overall experience. Traditional RSs collect and process all user data on a central server. However, this centralized approach raises significant privacy concerns, as it increases the risk of data breaches and privacy leakages, which are becoming increasingly unacceptable to privacy-sensitive users. To address these privacy challenges, federated learning has been integrated into RSs, ensuring that user data remains secure. In centralized RSs, the issue of rating bias is effectively addressed by jointly analyzing all users’ raw interaction data. However, this becomes a significant challenge in federated RSs, as raw data is no longer accessible due to privacy-preserving constraints. To overcome this problem, we propose a Federated Bias-Aware Latent Factor (FBALF) model. In FBALF, training bias is explicitly incorporated into every local model’s loss function, allowing for the effective elimination of rating bias without compromising data privacy. Extensive experiments conducted on three real-world datasets demonstrate that FBALF achieves significantly higher recommendation accuracy compared to other state-of-the-art federated RSs.

arxiv情報

著者 Junxiang Gao,Yixin Ran,Jia Chen
発行日 2025-04-21 13:24:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク