要約
私たちの日常生活ではレコメンダー システム (RecSys) が広く応用されていますが、そのようなシステムに存在する不公平性やバイアスを定量化する研究はかなり限られています。
これまでの研究は主に、RecSys が識別しているかどうかを判断することに焦点を当てていましたが、これらのシステムに存在するバイアスの量は計算していませんでした。
偏った推奨事項は、個人、敏感なユーザー グループ、社会に悪影響を与える可能性のある決定につながる可能性があります。
したがって、これらのシステムを公正かつ安全に商用利用するには、これらのバイアスを定量化することが重要です。
このペーパーは、RecSys モデルの出力から直接生じ、ユーザーの好みと一致しない可能性が高い人気アイテムの過剰推奨につながる人気バイアスの定量化に焦点を当てています。
さまざまな機密性の高いユーザー グループにわたる動的な設定で、時間の経過に伴う RescSys の人気バイアスを定量化するための 4 つの指標が提案されています。
これらのメトリクスは、文献で一般的に使用されている 2 つのベンチマーク データセットでトレーニングされた 4 つの協調フィルタリング ベースの RecSys アルゴリズムに対して実証されています。
得られた結果は、提案された指標を組み合わせて使用すると、時間の経過とともに増大する敏感なグループ間の治療格差を包括的に理解できることを示しています。
要約(オリジナル)
Albeit the widespread application of recommender systems (RecSys) in our daily lives, rather limited research has been done on quantifying unfairness and biases present in such systems. Prior work largely focuses on determining whether a RecSys is discriminating or not but does not compute the amount of bias present in these systems. Biased recommendations may lead to decisions that can potentially have adverse effects on individuals, sensitive user groups, and society. Hence, it is important to quantify these biases for fair and safe commercial applications of these systems. This paper focuses on quantifying popularity bias that stems directly from the output of RecSys models, leading to over recommendation of popular items that are likely to be misaligned with user preferences. Four metrics to quantify popularity bias in RescSys over time in dynamic setting across different sensitive user groups have been proposed. These metrics have been demonstrated for four collaborative filtering based RecSys algorithms trained on two commonly used benchmark datasets in the literature. Results obtained show that the metrics proposed provide a comprehensive understanding of growing disparities in treatment between sensitive groups over time when used conjointly.
arxiv情報
著者 | Valentijn Braun,Debarati Bhaumik,Diptish Dey |
発行日 | 2023-10-12 16:15:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google