Dual Structure-Aware Image Filterings for Semi-supervised Medical Image Segmentation

要約

半教師あり画像セグメンテーションは、最近大きな注目を集めています。
重要なのは、トレーニング プロセスでラベルのない画像をどのように活用するかです。
ほとんどの方法は、画像および/またはモデルレベルでの変動(ノイズ/摂動の追加、代替バージョンの作成など)の下で、ラベルなし画像の一貫した予測を維持します。
ほとんどの画像レベルのバリエーションでは、医療画像には事前の構造情報が含まれていることがよくありますが、これについては十分に調査されていません。
この論文では、半教師あり医用画像セグメンテーションの画像レベルのバリエーションとして、新しい二重構造認識画像フィルタリング (DSAIF) を提案します。
構造を認識したツリーベースの画像表現におけるフィルタリングによって画像を簡素化する接続フィルタリングを動機として、デュアルコントラスト不変の Max ツリー表現と Min ツリー表現に頼っています。
具体的には、Max/Min ツリー内で兄弟を持たないトポロジー的に等価なノード (つまり、接続されたコンポーネント) を削除する新しい接続されたフィルタリングを提案します。
これにより、トポロジー的に重要な構造を保存した 2 つのフィルター処理された画像が得られます。
提案された DSAIF を相互監視ネットワークに適用すると、ラベルのない画像に対する誤った予測のコンセンサスが減少します。
これにより、ラベルのない画像のノイズの多い擬似ラベルへの過剰適合という確認バイアスの問題が軽減され、セグメンテーションのパフォーマンスが効果的に向上します。
3 つのベンチマーク データセットに関する広範な実験結果は、提案された方法がいくつかの最先端の方法を大幅に/一貫して上回ることを示しています。
ソースコードは公開される予定です。

要約(オリジナル)

Semi-supervised image segmentation has attracted great attention recently. The key is how to leverage unlabeled images in the training process. Most methods maintain consistent predictions of the unlabeled images under variations (e.g., adding noise/perturbations, or creating alternative versions) in the image and/or model level. In most image-level variation, medical images often have prior structure information, which has not been well explored. In this paper, we propose novel dual structure-aware image filterings (DSAIF) as the image-level variations for semi-supervised medical image segmentation. Motivated by connected filtering that simplifies image via filtering in structure-aware tree-based image representation, we resort to the dual contrast invariant Max-tree and Min-tree representation. Specifically, we propose a novel connected filtering that removes topologically equivalent nodes (i.e. connected components) having no siblings in the Max/Min-tree. This results in two filtered images preserving topologically critical structure. Applying the proposed DSAIF to mutually supervised networks decreases the consensus of their erroneous predictions on unlabeled images. This helps to alleviate the confirmation bias issue of overfitting to noisy pseudo labels of unlabeled images, and thus effectively improves the segmentation performance. Extensive experimental results on three benchmark datasets demonstrate that the proposed method significantly/consistently outperforms some state-of-the-art methods. The source codes will be publicly available.

arxiv情報

著者 Yuliang Gu,Zhichao Sun,Tian Chen,Xin Xiao,Yepeng Liu,Yongchao Xu,Laurent Najman
発行日 2024-03-27 14:09:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク