Implicit U-Net for volumetric medical image segmentation

要約

U-Netは、医療画像セグメンテーションタスクの頼りになるアーキテクチャですが、U-Netアーキテクチャを3D画像に拡張する場合、計算上の課題が発生します。
効率的な暗黙の表現パラダイムを監視された画像セグメンテーションタスクに適応させる暗黙のU-Netアーキテクチャを提案します。
畳み込み特徴抽出器を暗黙のローカリゼーションネットワークと組み合わせることにより、暗黙のU-Netのパラメーターは同等のU-Netよりも40%少なくなります。
さらに、まばらな予測を活用するためのトレーニングと推論の手順を提案します。
同等の完全畳み込みU-Netと比較すると、Implicit U-Netは、2つの異なる腹部CTスキャンデータセットを使用した実験で同等の結果を達成しながら、推論とトレーニングの時間を約30%削減し、メモリフットプリントをトレーニングします。

要約(オリジナル)

U-Net has been the go-to architecture for medical image segmentation tasks, however computational challenges arise when extending the U-Net architecture to 3D images. We propose the Implicit U-Net architecture that adapts the efficient Implicit Representation paradigm to supervised image segmentation tasks. By combining a convolutional feature extractor with an implicit localization network, our implicit U-Net has 40% less parameters than the equivalent U-Net. Moreover, we propose training and inference procedures to capitalize sparse predictions. When comparing to an equivalent fully convolutional U-Net, Implicit U-Net reduces by approximately 30% inference and training time as well as training memory footprint while achieving comparable results in our experiments with two different abdominal CT scan datasets.

arxiv情報

著者 Sergio Naval Marimont,Giacomo Tarroni
発行日 2022-06-30 12:00:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク