Single-domain Generalization in Medical Image Segmentation via Test-time Adaptation from Shape Dictionary

要約

ドメインの一般化には、通常、モデル学習のために複数のソースドメインからのデータが必要です。
ただし、特にデータ共有が非常に懸念され、プライバシーの問題のために禁止されることがある医療分野では、このような強い仮定が常に実際に当てはまるとは限りません。
このホワイトペーパーでは、重要でありながら挑戦的な単一ドメインの一般化の問題について研究します。この問題では、1つのソースドメインのみを使用して最悪のシナリオでモデルを学習し、さまざまな見えないターゲットドメインに直接一般化します。
医療画像セグメンテーションにおけるこの問題に対処するための新しいアプローチを提示します。これは、ドメイン間で不変であり、単一ドメインデータからでも十分にキャプチャできるセグメンテーションのセマンティック形状の事前情報を抽出して統合し、分布シフトの下でのセグメンテーションを容易にします。
さらに、モデルの一般化可能性を向上させるために、各不可視ドメインの下でこれらの形状事前分布の動的な組み込みを促進するために、二重整合性正則化を使用したテスト時間適応戦略がさらに考案されています。
2つの医療画像セグメンテーションタスクに関する広範な実験は、さまざまな目に見えないドメインにわたる方法の一貫した改善と、最悪のシナリオでのドメインの一般化に対処する際の最先端のアプローチに対する優位性を示しています。

要約(オリジナル)

Domain generalization typically requires data from multiple source domains for model learning. However, such strong assumption may not always hold in practice, especially in medical field where the data sharing is highly concerned and sometimes prohibitive due to privacy issue. This paper studies the important yet challenging single domain generalization problem, in which a model is learned under the worst-case scenario with only one source domain to directly generalize to different unseen target domains. We present a novel approach to address this problem in medical image segmentation, which extracts and integrates the semantic shape prior information of segmentation that are invariant across domains and can be well-captured even from single domain data to facilitate segmentation under distribution shifts. Besides, a test-time adaptation strategy with dual-consistency regularization is further devised to promote dynamic incorporation of these shape priors under each unseen domain to improve model generalizability. Extensive experiments on two medical image segmentation tasks demonstrate the consistent improvements of our method across various unseen domains, as well as its superiority over state-of-the-art approaches in addressing domain generalization under the worst-case scenario.

arxiv情報

著者 Quande Liu,Cheng Chen,Qi Dou,Pheng-Ann Heng
発行日 2022-06-29 08:46:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク