要約
機械学習 (ML) モデルが人間が関与するアプリケーション (オンラインでの推薦、入学、雇用、融資など) で使用される場合、モデル自体が、予測する対象となるデータの分布の変化を引き起こす可能性があります。
実行的予測 (PP) は、ML モデルを学習する際に、このようなモデル依存の分布シフトを明示的に考慮するフレームワークです。
システムの堅牢性を目的として、PP におけるパフォーマンス安定 (PS) ソリューションを見つけることに多大な努力が払われてきましたが、その社会的影響についてはあまり検討されておらず、PS ソリューションが公平性などの社会規範と一致しているかどうかは不明です。
この論文では、パフォーマンス予測における PS ソリューションの公平性特性を調べることに着手しました。
まず、PS ソリューションが深刻な分極効果とグループごとの損失不均衡を引き起こす可能性があることを示します。
文献で一般的に使用されている既存の公平性メカニズムは不公平性を軽減するのに役立ちますが、モデルに依存した分布の変化の下では機能せず、安定性を破壊する可能性があります。
したがって、我々は、PP設定の安定性と公平性の両方を同時に達成できる新しい公平性介入メカニズムを提案します。
提案された方法を検証するために、理論的分析と実験の両方が提供されます。
要約(オリジナル)
When machine learning (ML) models are used in applications that involve humans (e.g., online recommendation, school admission, hiring, lending), the model itself may trigger changes in the distribution of targeted data it aims to predict. Performative prediction (PP) is a framework that explicitly considers such model-dependent distribution shifts when learning ML models. While significant efforts have been devoted to finding performative stable (PS) solutions in PP for system robustness, their societal implications are less explored and it is unclear whether PS solutions are aligned with social norms such as fairness. In this paper, we set out to examine the fairness property of PS solutions in performative prediction. We first show that PS solutions can incur severe polarization effects and group-wise loss disparity. Although existing fairness mechanisms commonly used in literature can help mitigate unfairness, they may fail and disrupt the stability under model-dependent distribution shifts. We thus propose novel fairness intervention mechanisms that can simultaneously achieve both stability and fairness in PP settings. Both theoretical analysis and experiments are provided to validate the proposed method.
arxiv情報
著者 | Kun Jin,Tian Xie,Yang Liu,Xueru Zhang |
発行日 | 2024-06-24 16:03:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google