Unreading Race: Purging Protected Features from Chest X-ray Embeddings

要約

目的: 深層学習モデルの胸部 X 線写真埋め込みにおける保護された特徴の影響を分析して削除します。
材料と方法: 胸部 X 線写真の埋め込みにおける保護された特徴 (年齢、性別、人種など) の影響を除去するために直交化が利用され、特徴に依存しない結果が保証されます。
このアプローチの有効性を検証するために、教師あり対比モデル、自己教師あり対比モデル、およびベースライン分類子モデルという 3 つの事前トレーニング済みモデルを使用して、MIMIC および CheXpert データセットを遡及的に研究します。
私たちの統計分析には、保護された特徴の影響を推定し、2 種類の埋め込みを使用して人種、年齢、または性別を予測する能力を評価することによって、元の埋め込みと直交化された埋め込みを比較することが含まれます。
結果: 私たちの実験では、保護された機能が病状の予測に大きな影響を与えることが明らかになりました。
直交化を適用すると、これらの特徴効果が除去されます。
競合する予測パフォーマンスを維持しながら病理分類への影響を除去することとは別に、直交化埋め込みにより、保護された属性を直接予測してサブグループの不均衡を軽減することがさらに不可能になります。
結論: 提示された研究は、胸部 X 線分類の領域における直交化技術の適用と評価の成功を実証しています。

要約(オリジナル)

Purpose: To analyze and remove protected feature effects in chest radiograph embeddings of deep learning models. Materials and Methods: An orthogonalization is utilized to remove the influence of protected features (e.g., age, sex, race) in chest radiograph embeddings, ensuring feature-independent results. To validate the efficacy of the approach, we retrospectively study the MIMIC and CheXpert datasets using three pre-trained models, namely a supervised contrastive, a self-supervised contrastive, and a baseline classifier model. Our statistical analysis involves comparing the original versus the orthogonalized embeddings by estimating protected feature influences and evaluating the ability to predict race, age, or sex using the two types of embeddings. Results: Our experiments reveal a significant influence of protected features on predictions of pathologies. Applying orthogonalization removes these feature effects. Apart from removing any influence on pathology classification, while maintaining competitive predictive performance, orthogonalized embeddings further make it infeasible to directly predict protected attributes and mitigate subgroup disparities. Conclusion: The presented work demonstrates the successful application and evaluation of the orthogonalization technique in the domain of chest X-ray classification.

arxiv情報

著者 Tobias Weber,Michael Ingrisch,Bernd Bischl,David Rügamer
発行日 2023-11-02 15:59:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG, stat.ML パーマリンク