要約
磁気共鳴画像 (MRI) から胎児の脳を正確にセグメンテーションすることは、胎児の発育の出生前評価にとって重要です。
ディープラーニングはこのタスクを達成できる可能性を示していますが、収集するのが困難な大規模で精細な注釈付きデータセットが必要です。
この問題に対処するために、画像レベルのラベルを使用した弱教師セグメンテーション手法が注目を集めています。この手法は通常、画像タグでトレーニングされた分類ネットワークからのクラス アクティベーション マップに基づいています。
ただし、これらの方法のほとんどは、詳細な境界手がかりがない低解像度の位置特定のため、不完全な活性化領域に悩まされます。
この目的を達成するために、意味論的特徴とコンテキスト情報探索に基づいた画像レベルのラベルを備えた新しい弱教師あり手法を提案します。
まず、高品質のピクセルレベルの監視を生成するために、不確実性加重多重解像度クラスアクティベーションマップ (UM-CAM) を提案します。
次に、UM-CAM のあいまいな境界を修正するためのコンテキスト情報を提供する測地線距離ベースのシード拡張 (GSE) 手法を設計します。
胎児の脳データセットに関する広範な実験により、当社の UM-CAM は既存の CAM バリアントよりも偽陽性領域が少なく、より正確な活性化領域を提供できることが示されており、当社が提案した手法は、画像レベルのラベルを使用した最先端の弱教師あり手法よりも優れています。
。
要約(オリジナル)
Accurate segmentation of the fetal brain from Magnetic Resonance Image (MRI) is important for prenatal assessment of fetal development. Although deep learning has shown the potential to achieve this task, it requires a large fine annotated dataset that is difficult to collect. To address this issue, weakly-supervised segmentation methods with image-level labels have gained attention, which are commonly based on class activation maps from a classification network trained with image tags. However, most of these methods suffer from incomplete activation regions, due to the low-resolution localization without detailed boundary cues. To this end, we propose a novel weakly-supervised method with image-level labels based on semantic features and context information exploration. We first propose an Uncertainty-weighted Multi-resolution Class Activation Map (UM-CAM) to generate high-quality pixel-level supervision. Then, we design a Geodesic distance-based Seed Expansion (GSE) method to provide context information for rectifying the ambiguous boundaries of UM-CAM. Extensive experiments on a fetal brain dataset show that our UM-CAM can provide more accurate activation regions with fewer false positive regions than existing CAM variants, and our proposed method outperforms state-of-the-art weakly-supervised methods with image-level labels.
arxiv情報
著者 | Jia Fu,Tao Lu,Shaoting Zhang,Guotai Wang |
発行日 | 2023-06-20 12:21:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google