要約
深層分類器のパフォーマンスの差異を調査します。
個人をサブグループに分類する分類器の能力は、医用画像モダリティと保護される特性によって大きく異なることがわかりました。
重要なのは、この特性がアルゴリズムのバイアスを予測できることを示していることです。
理論分析と広範な実証的評価を通じて、診断不足などの体系的なバイアスのあるデータでモデルをトレーニングした場合の、サブグループの分離可能性、サブグループの格差、およびパフォーマンスの低下との関係を発見しました。
私たちの調査結果は、モデルがどのように偏るのかという問題に新たな光を当て、公平な医療画像 AI の開発に重要な洞察を提供します。
要約(オリジナル)
We investigate performance disparities in deep classifiers. We find that the ability of classifiers to separate individuals into subgroups varies substantially across medical imaging modalities and protected characteristics; crucially, we show that this property is predictive of algorithmic bias. Through theoretical analysis and extensive empirical evaluation, we find a relationship between subgroup separability, subgroup disparities, and performance degradation when models are trained on data with systematic bias such as underdiagnosis. Our findings shed new light on the question of how models become biased, providing important insights for the development of fair medical imaging AI.
arxiv情報
| 著者 | Charles Jones,Mélanie Roschewitz,Ben Glocker |
| 発行日 | 2023-07-06 06:06:47+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google