要約
タイトル:メディカルイメージングにおける人口統計情報の影響についての公正性の検討
要約:
– 医療イメージングモデルは、潜在表現に患者の人口統計情報(年齢、人種、性別)をエンコードすることが示されており、差別の可能性について懸念がある。
– 人口統計属性をエンコードしないモデルをトレーニングすることが可能であり望ましいのかどうかを尋ねる。
– 人口統計属性に対する異質性の異なるタイプ(周辺、クラス条件付き、カウンターファクトモデル不変性)を考慮し、それらがアルゴリズム的公正性の標準概念と同等であることを明らかにする。
– 既存の理論に基づいて、周辺的およびクラス条件付きの不変性は、特定の公正性概念を実現するために過度に制限的なアプローチと考えられ、重大な予測パフォーマンスの低下を引き起こす可能性がある。
– カウンターファクトモデル不変性に関しては、人口統計属性に基づいて医療画像の仮説を定義することは複雑であることに留意する。
– 最後に、人口統計情報のエンコードが、人工的なカテゴリー(「人種」、「性別」)に依存しないタスク固有のエンコードの学習を可能にする場合、むしろ有利と考えられるかもしれないことを示唆する。
– 結論として、医療画像モデルは人口統計属性をエンコードする必要があり、予測パフォーマンスの観点で包括的なモデルの公正性評価を求める呼びかけをさらに緊急化すると結論付ける。
要約(オリジナル)
Medical imaging models have been shown to encode information about patient demographics (age, race, sex) in their latent representation, raising concerns about their potential for discrimination. Here, we ask whether it is feasible and desirable to train models that do not encode demographic attributes. We consider different types of invariance with respect to demographic attributes – marginal, class-conditional, and counterfactual model invariance – and lay out their equivalence to standard notions of algorithmic fairness. Drawing on existing theory, we find that marginal and class-conditional invariance can be considered overly restrictive approaches for achieving certain fairness notions, resulting in significant predictive performance losses. Concerning counterfactual model invariance, we note that defining medical image counterfactuals with respect to demographic attributes is fraught with complexities. Finally, we posit that demographic encoding may even be considered advantageous if it enables learning a task-specific encoding of demographic features that does not rely on human-constructed categories such as ‘race’ and ‘gender’. We conclude that medical imaging models may need to encode demographic attributes, lending further urgency to calls for comprehensive model fairness assessments in terms of predictive performance.
arxiv情報
著者 | Eike Petersen,Enzo Ferrante,Melanie Ganz,Aasa Feragen |
発行日 | 2023-05-02 13:16:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI