要約
人工知能 (AI) はさまざまな分野で広く応用されていますが、その導入における公平性について懸念が生じています。
分類における一般的な議論では、サブグループ内の差異的な影響についての微妙な考慮が行われず、機密性の高いサブグループを比較する結果ベースの指標が強調されることがよくあります。
バイアス軽減技術は、機密性の高いグループ全体のインスタンスのペアのランキングに影響を与えるだけでなく、多くの場合、これらのグループ内のインスタンスのランキングにも大きな影響を与えます。
このような変化は説明が難しく、介入の有効性について懸念が生じます。
残念ながら、通常適用される精度と公平性の評価フレームワークでは、これらの影響は目立たないままです。
さらに、いくつかの一般的なバイアス緩和方法の効果と、その出力が現実世界のシナリオを反映していない場合が多いことを説明します。
要約(オリジナル)
Artificial Intelligence (AI) finds widespread application across various domains, but it sparks concerns about fairness in its deployment. The prevailing discourse in classification often emphasizes outcome-based metrics comparing sensitive subgroups without a nuanced consideration of the differential impacts within subgroups. Bias mitigation techniques not only affect the ranking of pairs of instances across sensitive groups, but often also significantly affect the ranking of instances within these groups. Such changes are hard to explain and raise concerns regarding the validity of the intervention. Unfortunately, these effects remain under the radar in the accuracy-fairness evaluation framework that is usually applied. Additionally, we illustrate the effect of several popular bias mitigation methods, and how their output often does not reflect real-world scenarios.
arxiv情報
著者 | Sofie Goethals,Marco Favier,Toon Calders |
発行日 | 2024-12-17 15:12:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google