要約
ドメイン シフトにより、ディープ ラーニング画像分類器は、トレーニングとは異なるドメインに適用されるとパフォーマンスが低下します。
たとえば、ある病院の胸部 X 線 (CXR) 画像でトレーニングされた分類器は、スキャナーの設定や患者の特性の違いにより、別の病院の画像に一般化できない場合があります。
このペーパーでは、CROCODILE フレームワークを紹介し、因果関係からのツールが、特徴のもつれ解除、対比学習損失、事前知識の注入を通じて、ドメイン シフトに対するモデルの堅牢性をどのように促進できるかを示します。
このようにして、モデルは偽の相関に依存することが少なくなり、画像から予測に至るメカニズムをより適切に学習し、分布外 (OOD) データのベースラインを上回るパフォーマンスを発揮します。
私たちは、4 つのデータセットからの 750,000 以上の画像を利用して、CXR からのマルチラベル肺疾患分類にこの方法を適用します。
当社のバイアス軽減手法により、ドメインの一般化と公平性が向上し、より安全な医用画像分析のための深層学習モデルの適用性と信頼性が広がります。
コードは https://github.com/gianlucarloni/crocodile で見つけてください。
要約(オリジナル)
Due to domain shift, deep learning image classifiers perform poorly when applied to a domain different from the training one. For instance, a classifier trained on chest X-ray (CXR) images from one hospital may not generalize to images from another hospital due to variations in scanner settings or patient characteristics. In this paper, we introduce our CROCODILE framework, showing how tools from causality can foster a model’s robustness to domain shift via feature disentanglement, contrastive learning losses, and the injection of prior knowledge. This way, the model relies less on spurious correlations, learns the mechanism bringing from images to prediction better, and outperforms baselines on out-of-distribution (OOD) data. We apply our method to multi-label lung disease classification from CXRs, utilizing over 750000 images from four datasets. Our bias-mitigation method improves domain generalization and fairness, broadening the applicability and reliability of deep learning models for a safer medical image analysis. Find our code at: https://github.com/gianlucarloni/crocodile.
arxiv情報
著者 | Gianluca Carloni,Sotirios A Tsaftaris,Sara Colantonio |
発行日 | 2024-08-09 09:08:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google