Unsupervised bias discovery in medical image segmentation

要約

最近、医療画像の解剖学的セグメンテーションのためのディープラーニングモデルが、性別や民族性などの保護属性で定義された特定のサブ集団に対してバイアスを示す可能性があることが示された。この文脈では、ディープセグメンテーションモデルの公正性を監査することが重要になる。しかし、このような監査プロセスには、一般に、ターゲット集団のためのグランドトゥルースのセグメンテーションマスクへのアクセスが必要であり、それは、特に開発から展開に移行する際に、常に利用できるとは限らない。本論文では、バイオメディカル画像のセグメンテーションにおいて、グランドトゥルースのアノテーションがない場合に、モデルのバイアスを予測する新しい手法を提案する。我々の教師なしバイアス発見法は、セグメンテーションの品質を推定するために、逆分類精度のフレームワークを活用する。合成的なシナリオと現実的なシナリオでの数値実験を通じて、本手法が、地上真理ラベルがない場合に、どのように公平性の問題をうまく予測できるかを示し、この分野における斬新で価値のあるツールを構成する。

要約(オリジナル)

It has recently been shown that deep learning models for anatomical segmentation in medical images can exhibit biases against certain sub-populations defined in terms of protected attributes like sex or ethnicity. In this context, auditing fairness of deep segmentation models becomes crucial. However, such audit process generally requires access to ground-truth segmentation masks for the target population, which may not always be available, especially when going from development to deployment. Here we propose a new method to anticipate model biases in biomedical image segmentation in the absence of ground-truth annotations. Our unsupervised bias discovery method leverages the reverse classification accuracy framework to estimate segmentation quality. Through numerical experiments in synthetic and realistic scenarios we show how our method is able to successfully anticipate fairness issues in the absence of ground-truth labels, constituting a novel and valuable tool in this field.

arxiv情報

著者 Nicolás Gaggion,Rodrigo Echeveste,Lucas Mansilla,Diego H. Milone,Enzo Ferrante
発行日 2023-09-01 13:29:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク