要約
U-Netは、医療画像セグメンテーションタスクの頼りになるアーキテクチャですが、U-Netアーキテクチャを3D画像に拡張する場合、計算上の課題が発生します。
効率的な暗黙の表現パラダイムを監視された画像セグメンテーションタスクに適応させる暗黙のU-Netアーキテクチャを提案します。
畳み込み特徴抽出器を暗黙のローカリゼーションネットワークと組み合わせることにより、暗黙のU-Netのパラメーターは同等のU-Netよりも40%少なくなります。
さらに、まばらな予測を活用するためのトレーニングと推論の手順を提案します。
同等の完全畳み込みU-Netと比較すると、Implicit U-Netは、2つの異なる腹部CTスキャンデータセットを使用した実験で同等の結果を達成しながら、推論とトレーニングの時間を約30%削減し、メモリフットプリントをトレーニングします。
要約(オリジナル)
U-Net has been the go-to architecture for medical image segmentation tasks, however computational challenges arise when extending the U-Net architecture to 3D images. We propose the Implicit U-Net architecture that adapts the efficient Implicit Representation paradigm to supervised image segmentation tasks. By combining a convolutional feature extractor with an implicit localization network, our implicit U-Net has 40% less parameters than the equivalent U-Net. Moreover, we propose training and inference procedures to capitalize sparse predictions. When comparing to an equivalent fully convolutional U-Net, Implicit U-Net reduces by approximately 30% inference and training time as well as training memory footprint while achieving comparable results in our experiments with two different abdominal CT scan datasets.
arxiv情報
著者 | Sergio Naval Marimont,Giacomo Tarroni |
発行日 | 2022-06-30 12:00:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google