Are demographically invariant models and representations in medical imaging fair?

要約

医用画像モデルは、年齢、人種、性別などの患者の属性情報を潜在表現に取り込むことが示されており、差別の可能性について懸念が持たれている。ここでは、人口統計学的属性を符号化しないことをモデルに要求することが望ましいかどうかを問う。我々は、限界的表現不変性とクラス条件的表現不変性が、それぞれ人口統計学的パリティとオッズの均等化という標準的なグループの公平性の概念を意味することを指摘する。しかし、これらに加えて、リスク分布を一致させる必要があり、その結果、重要な集団の差異が均等化される可能性がある。その代わり、従来の公平性概念を直接強制することは、このような強い制約を伴わない。さらに、表現不変モデルは、予測を導くために人口統計学的属性を考慮する可能性があり、不平等な扱いを意味する。理論的には、(個人の)公平性や不変性の反実仮想的概念を用いることで、これを防ぐことができる。しかし、人口統計学的属性に関する医療画像の反実仮想を適切に定義することは困難が伴うことに注意する。最後に、「人種」や「性別」のような社会的構成概念に依存しない、人口統計学的特徴のタスクに特化した符号化を学習できるのであれば、人口統計学的属性を符号化することは有利であるとさえ考えられる。我々は、人口統計学的に不変な表現は、医用画像の公平性にとって必要でも十分でもないと結論づける。モデルは人口統計学的属性を符号化する必要がある可能性があり、多様な患者グループにわたる予測性能という観点から、モデルの公平性を包括的に評価する必要性がさらに高まっている。

要約(オリジナル)

Medical imaging models have been shown to encode information about patient demographics such as age, race, and sex in their latent representation, raising concerns about their potential for discrimination. Here, we ask whether requiring models not to encode demographic attributes is desirable. We point out that marginal and class-conditional representation invariance imply the standard group fairness notions of demographic parity and equalized odds, respectively. In addition, however, they require matching the risk distributions, thus potentially equalizing away important group differences. Enforcing the traditional fairness notions directly instead does not entail these strong constraints. Moreover, representationally invariant models may still take demographic attributes into account for deriving predictions, implying unequal treatment – in fact, achieving representation invariance may require doing so. In theory, this can be prevented using counterfactual notions of (individual) fairness or invariance. We caution, however, that properly defining medical image counterfactuals with respect to demographic attributes is fraught with challenges. Finally, we posit that encoding demographic attributes may even be advantageous if it enables learning a task-specific encoding of demographic features that does not rely on social constructs such as ‘race’ and ‘gender.’ We conclude that demographically invariant representations are neither necessary nor sufficient for fairness in medical imaging. Models may need to encode demographic attributes, lending further urgency to calls for comprehensive model fairness assessments in terms of predictive performance across diverse patient groups.

arxiv情報

著者 Eike Petersen,Enzo Ferrante,Melanie Ganz,Aasa Feragen
発行日 2024-07-03 15:52:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CY, cs.LG, eess.IV, stat.ML パーマリンク