Improving anatomical plausibility in medical image segmentation via hybrid graph neural networks: applications to chest x-ray analysis

要約

解剖学的セグメンテーションは、医用画像コンピューティングの基本的なタスクであり、通常、高密度のセグメンテーション マスクを生成する完全な畳み込みニューラル ネットワークで取り組みます。
これらのモデルは、多くの場合、クロス エントロピーやダイスなどの損失関数を使用してトレーニングされます。これらの関数は、ピクセルが互いに独立していると想定するため、トポロジ エラーや解剖学的な矛盾が無視されます。
ピクセルレベルからグラフ表現に移行することで、この制限に対処します。これにより、構造による解剖学的制約を自然に組み込むことができます。
この目的のために、HybridGNet を導入します。これは、画像特徴のエンコードとグラフ畳み込みニューラル ネットワーク (GCNN) に標準的な畳み込みを利用して、解剖学的構造のもっともらしい表現をデコードするエンコーダー/デコーダー ニューラル アーキテクチャです。
また、ローカライズされた特徴が標準の畳み込みブロックから GCNN ブロックに流れることを可能にする、新しい画像からグラフへのスキップ接続レイヤーを提案し、セグメンテーションの精度が向上することを示します。
提案されたアーキテクチャは、さまざまなドメイン シフトおよびイメージ オクルージョン シナリオで広く評価され、さまざまなタイプの人口統計学的ドメイン シフトを考慮して監査されます。
当社の包括的な実験セットアップでは、胸部 X 線画像の解剖学的セグメンテーションについて、HybridGNet を他のランドマークおよびピクセルベースのモデルと比較し、他のモデルが失敗する傾向がある困難なシナリオで、HybridGNet が解剖学的にもっともらしい結果を生成することを示しています。

要約(オリジナル)

Anatomical segmentation is a fundamental task in medical image computing, generally tackled with fully convolutional neural networks which produce dense segmentation masks. These models are often trained with loss functions such as cross-entropy or Dice, which assume pixels to be independent of each other, thus ignoring topological errors and anatomical inconsistencies. We address this limitation by moving from pixel-level to graph representations, which allow to naturally incorporate anatomical constraints by construction. To this end, we introduce HybridGNet, an encoder-decoder neural architecture that leverages standard convolutions for image feature encoding and graph convolutional neural networks (GCNNs) to decode plausible representations of anatomical structures. We also propose a novel image-to-graph skip connection layer which allows localized features to flow from standard convolutional blocks to GCNN blocks, and show that it improves segmentation accuracy. The proposed architecture is extensively evaluated in a variety of domain shift and image occlusion scenarios, and audited considering different types of demographic domain shift. Our comprehensive experimental setup compares HybridGNet with other landmark and pixel-based models for anatomical segmentation in chest x-ray images, and shows that it produces anatomically plausible results in challenging scenarios where other models tend to fail.

arxiv情報

著者 Nicolás Gaggion,Lucas Mansilla,Candelaria Mosquera,Diego H. Milone,Enzo Ferrante
発行日 2022-11-14 12:54:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク