Mitigating attribute amplification in counterfactual image generation

要約

因果生成モデリングは、介入的な質問や反事実的な質問に答える能力があるため、医療画像処理において関心を集めています。
ほとんどの研究は、模擬介入の有効性を強化するために補助分類子を使用して、もっともらしく見える反事実の画像を生成することに焦点を当てています。
私たちはこのアプローチの落とし穴を調査し、介入中に無関係な属性が誤って影響を受け、保護される特性や疾患の状態全体に偏りをもたらす属性増幅の問題を発見しました。
属性の増幅が反事実トレーニング プロセスでのハード ラベルの使用によって引き起こされることを示し、この問題を軽減するためのソフト反事実微調整を提案します。
私たちの方法は、生成された画像の有効性を維持しながら増幅効果を大幅に軽減し、大規模な胸部 X 線データセットで実証されています。
私たちの研究は、医療画像におけるより忠実で偏りのない因果モデリングに向けて重要な進歩をもたらしました。

要約(オリジナル)

Causal generative modelling is gaining interest in medical imaging due to its ability to answer interventional and counterfactual queries. Most work focuses on generating counterfactual images that look plausible, using auxiliary classifiers to enforce effectiveness of simulated interventions. We investigate pitfalls in this approach, discovering the issue of attribute amplification, where unrelated attributes are spuriously affected during interventions, leading to biases across protected characteristics and disease status. We show that attribute amplification is caused by the use of hard labels in the counterfactual training process and propose soft counterfactual fine-tuning to mitigate this issue. Our method substantially reduces the amplification effect while maintaining effectiveness of generated images, demonstrated on a large chest X-ray dataset. Our work makes an important advancement towards more faithful and unbiased causal modelling in medical imaging.

arxiv情報

著者 Tian Xia,Mélanie Roschewitz,Fabio De Sousa Ribeiro,Charles Jones,Ben Glocker
発行日 2024-03-14 14:14:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク