Learning to Generalize towards Unseen Domains via a Content-Aware Style Invariant Framework for Disease Detection from Chest X-rays

要約

ソース ドメインの不一致によるパフォーマンスの低下は、ディープ ラーニング ベースの医用画像解析、特に胸部 X 線の長年にわたる課題です。
このドメインシフトに対処するために、敵対的学習やマルチドメインミックスアップを利用してドメイン不変の高レベル機能を抽出するなど、いくつかの方法が提案されています。
ただし、これらの方法では、抽出されたドメイン不変の特徴のコンテンツおよびスタイル属性を明示的に説明したり、正規化したりすることはありません。
最近の研究では、人間の視覚システムとはまったく対照的に、CNN モデルはコンテンツよりもスタイル (テクスチャなど) に強い偏りを示すことが示されています。
説明可能な表現は、医療画像の堅牢で一般化可能な理解にとって最も重要です。
したがって、学習した高レベルのセマンティック機能は、コンテンツ固有、つまり病理固有でドメインにとらわれず、スタイル不変である必要があります。
これに着想を得て、スタイルの偏りを減らしながらコンテンツにより重点を置くことで、クロスドメインのパフォーマンスを向上させる新しいフレームワークを提案します。
エンドツーエンドのフレームワークを使用してコンテンツを保持しながら、スタイル化された摂動機能を作成するために、画像レベルと機能レベルの両方でスタイル ランダム化モジュールを採用しています。
ランダム化されたスタイルの有無にかかわらず、同じ胸部 X 線のバックボーン モデルからグローバルな特徴を抽出します。
それらの間にコンテンツの一貫性の正則化を適用して、正確な予測のためにコンテンツ マーカーに対するフレームワークの感度を微調整します。
目に見えないドメイン テスト データセットに関する広範な実験は、提案されたパイプラインがドメイン シフトの存在下でより堅牢であり、最先端のパフォーマンスを達成することを示しています。
コードは https://github.com/rafizunaed/domain_agnostic_content_aware_style_invariant から入手できます。

要約(オリジナル)

Performance degradation due to source domain mismatch is a longstanding challenge in deep learning-based medical image analysis, particularly for chest X-rays. Several methods have been proposed to address this domain shift, such as utilizing adversarial learning or multi-domain mixups to extract domain-invariant high-level features. However, these methods do not explicitly account for or regularize the content and style attributes of the extracted domain-invariant features. Recent studies have demonstrated that CNN models exhibit a strong bias toward styles (i.e., textures) rather than content, in stark contrast to the human-vision system. Explainable representations are paramount for a robust and generalizable understanding of medical images. Thus, the learned high-level semantic features need to be both content-specific, i.e., pathology-specific and domain-agnostic, as well as style invariant. Inspired by this, we propose a novel framework that improves cross-domain performances by focusing more on content while reducing style bias. We employ a style randomization module at both image and feature levels to create stylized perturbation features while preserving the content using an end-to-end framework. We extract the global features from the backbone model for the same chest X-ray with and without style randomized. We apply content consistency regularization between them to tweak the framework’s sensitivity toward content markers for accurate predictions. Extensive experiments on unseen domain test datasets demonstrate that our proposed pipeline is more robust in the presence of domain shifts and achieves state-of-the-art performance. Our code is available via https://github.com/rafizunaed/domain_agnostic_content_aware_style_invariant.

arxiv情報

著者 Mohammad Zunaed,Md. Aynal Haque,Taufiq Hasan
発行日 2023-02-27 17:30:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, eess.IV パーマリンク