The Role of Subgroup Separability in Group-Fair Medical Image Classification

要約

深層分類器のパフォーマンスの差異を調査します。
個人をサブグループに分類する分類器の能力は、医用画像モダリティと保護される特性によって大きく異なることがわかりました。
重要なのは、この特性がアルゴリズムのバイアスを予測できることを示していることです。
理論分析と広範な実証的評価を通じて、診断不足などの体系的なバイアスのあるデータでモデルをトレーニングした場合の、サブグループの分離可能性、サブグループの格差、およびパフォーマンスの低下との関係を発見しました。
私たちの調査結果は、モデルがどのように偏るのかという問題に新たな光を当て、公平な医療画像 AI の開発に重要な洞察を提供します。

要約(オリジナル)

We investigate performance disparities in deep classifiers. We find that the ability of classifiers to separate individuals into subgroups varies substantially across medical imaging modalities and protected characteristics; crucially, we show that this property is predictive of algorithmic bias. Through theoretical analysis and extensive empirical evaluation, we find a relationship between subgroup separability, subgroup disparities, and performance degradation when models are trained on data with systematic bias such as underdiagnosis. Our findings shed new light on the question of how models become biased, providing important insights for the development of fair medical imaging AI.

arxiv情報

著者 Charles Jones,Mélanie Roschewitz,Ben Glocker
発行日 2023-07-06 06:06:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.CY, cs.LG パーマリンク