要約
ユーザーのニーズに合わせてアイテムや情報をパーソナライズすることには利点がありますが、レコメンダー システムでは、人気のあるアイテムやアイテムの特定のカテゴリ、および支配的なユーザー グループを好むバイアスが生じる傾向があることがわかっています。
この研究では、推奨システムの系統的エラーと、それらが固定観念、偏見、誤った調整などのさまざまな責任問題にどのように現れるかを特徴付けることを目的としています。
私たちは、予測誤差の原因を、システムによって引き起こされるさまざまな種類の影響を個人レベルと集団レベルの両方で定量化する一連の主要な尺度に区別する統一フレームワークを提案します。
私たちの測定フレームワークに基づいて、映画の推奨の文脈で最も広く採用されているアルゴリズムを調査します。
私たちの調査では、次の 3 つの重要な発見が明らかになりました。 (1) アルゴリズム間の違い: 単純なアルゴリズムによって生成された推奨事項は、より複雑なアルゴリズムによって生成された推奨事項よりも定型的な傾向がありますが、偏りが少ない傾向があります。
(2) グループと個人に対する異なる影響: システムによって引き起こされる偏見や固定観念は、非典型的なユーザーや少数派グループ (例: 女性や高齢ユーザー) に不均衡な影響を与えます。
(3) 緩和の機会: 構造方程式モデリングを使用して、ユーザー特性 (典型性と多様性)、システム誘発効果、および誤調整の間の相互作用を特定します。
さらに、過小評価されたグループや個人をオーバーサンプリングすることでシステム誘発効果を軽減できる可能性を調査します。これは、固定観念を減らし、推奨の質を向上させるのに効果的であることが判明しました。
私たちの研究は、システム誘発効果と誤った調整だけでなく、レコメンダーシステムにおけるステレオタイプの問題についても初めて体系的に調査したものです。
要約(オリジナル)
Despite the benefits of personalizing items and information tailored to users’ needs, it has been found that recommender systems tend to introduce biases that favor popular items or certain categories of items, and dominant user groups. In this study, we aim to characterize the systematic errors of a recommendation system and how they manifest in various accountability issues, such as stereotypes, biases, and miscalibration. We propose a unified framework that distinguishes the sources of prediction errors into a set of key measures that quantify the various types of system-induced effects, both at the individual and collective levels. Based on our measuring framework, we examine the most widely adopted algorithms in the context of movie recommendation. Our research reveals three important findings: (1) Differences between algorithms: recommendations generated by simpler algorithms tend to be more stereotypical but less biased than those generated by more complex algorithms. (2) Disparate impact on groups and individuals: system-induced biases and stereotypes have a disproportionate effect on atypical users and minority groups (e.g., women and older users). (3) Mitigation opportunity: using structural equation modeling, we identify the interactions between user characteristics (typicality and diversity), system-induced effects, and miscalibration. We further investigate the possibility of mitigating system-induced effects by oversampling underrepresented groups and individuals, which was found to be effective in reducing stereotypes and improving recommendation quality. Our research is the first systematic examination of not only system-induced effects and miscalibration but also the stereotyping issue in recommender systems.
arxiv情報
| 著者 | Yongsu Ahn,Yu-Ru Lin |
| 発行日 | 2023-12-29 02:32:12+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google