Joint Modeling of Image and Label Statistics for Enhancing Model Generalizability of Medical Image Segmentation

要約

教師あり深層学習は医用画像セグメンテーションにおいて有望な性能を達成しているが,多くの手法は未見データに対してうまく汎化できず,実世界での適用が制限されている.この問題に対処するため、我々は、医用画像の領域と無関係な輪郭をセグメンテーションに利用し、画像とラベルの統計量を共同でモデル化する、深層学習ベースのベイズフレームワークを提案する。具体的には、まず画像を輪郭と基底の構成要素に分解する。次に、期待されるラベルを輪郭にのみ関連する変数としてモデル化する。最後に、輪郭、基底、ラベルを含むこれらの変数の事後分布を推定する変分ベイズ的枠組みを開発する。この枠組みはニューラルネットワークで実装されているため、ディープベイズセグメンテーションと呼ばれる。心臓MRIのクロスシーケンスセグメンテーションのタスクに関する結果は、我々の方法がモデルの汎化性に関して新しい状態を設定したことを示している。特に、LGE MRIで学習したBayeSegモデルはT2画像でもよく汎化し、他のモデルよりも大きなマージン、すなわち平均Diceで0.47以上上回る性能を示した。我々のコードは https://zmiclab.github.io/projects.html で公開されています。

要約(オリジナル)

Although supervised deep-learning has achieved promising performance in medical image segmentation, many methods cannot generalize well on unseen data, limiting their real-world applicability. To address this problem, we propose a deep learning-based Bayesian framework, which jointly models image and label statistics, utilizing the domain-irrelevant contour of a medical image for segmentation. Specifically, we first decompose an image into components of contour and basis. Then, we model the expected label as a variable only related to the contour. Finally, we develop a variational Bayesian framework to infer the posterior distributions of these variables, including the contour, the basis, and the label. The framework is implemented with neural networks, thus is referred to as deep Bayesian segmentation. Results on the task of cross-sequence cardiac MRI segmentation show that our method set a new state of the art for model generalizability. Particularly, the BayeSeg model trained with LGE MRI generalized well on T2 images and outperformed other models with great margins, i.e., over 0.47 in terms of average Dice. Our code is available at https://zmiclab.github.io/projects.html.

arxiv情報

著者 Shangqi Gao,Hangqi Zhou,Yibo Gao,Xiahai Zhuang
発行日 2022-06-09 08:31:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク