Mitigating Popularity Bias in Collaborative Filtering through Fair Sampling

要約

推奨システムは、多くの場合、人気バイアスに悩まされます。このバイアスでは、頻繁に相互作用するアイテムが推奨事項で過剰に表現されています。
このバイアスは、トレーニングデータに影響を与える傾向要因に起因し、不均衡な暴露につながります。
このホワイトペーパーでは、ユーザーとアイテムの両方がポジティブおよびネガティブなインスタンスとして同等の確率で選択されるようにすることにより、この問題に対処するための公正なサンプリング(FS)アプローチを紹介します。
従来の逆傾向スコア(IPS)メソッドとは異なり、FSは傾向の推定を必要とせず、不正確な計算に関連するエラーを排除します。
私たちの理論分析は、FSが傾向因子の影響を効果的に中和し、偏りのない学習を達成することを示しています。
実験結果は、FSがポイントごとの推奨タスクとペアごとの推奨タスクの両方で最先端の方法を上回り、精度を犠牲にすることなく推奨公平性を高めることを検証します。
実装はhttps://anonymous.4open.science/r/fair-samplingで入手できます。

要約(オリジナル)

Recommender systems often suffer from popularity bias, where frequently interacted items are overrepresented in recommendations. This bias stems from propensity factors influencing training data, leading to imbalanced exposure. In this paper, we introduce a Fair Sampling (FS) approach to address this issue by ensuring that both users and items are selected with equal probability as positive and negative instances. Unlike traditional inverse propensity score (IPS) methods, FS does not require propensity estimation, eliminating errors associated with inaccurate calculations. Our theoretical analysis demonstrates that FS effectively neutralizes the influence of propensity factors, achieving unbiased learning. Experimental results validate that FS outperforms state-of-the-art methods in both point-wise and pair-wise recommendation tasks, enhancing recommendation fairness without sacrificing accuracy. The implementation is available at https://anonymous.4open.science/r/Fair-Sampling.

arxiv情報

著者 Jiahao Liu,Dongsheng Li,Hansu Gu,Peng Zhang,Tun Lu,Li Shang,Ning Gu
発行日 2025-02-19 15:59:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク