要約
過去 10 年間で、ディープ ラーニング、特にディープ ニューラル ネットワークの急速な発展により、医用画像解析は目覚ましい進歩を遂げました。
しかし、医用画像におけるさまざまな組織や臓器間の関係情報をどのように有効に利用するかは、依然として非常に難しい問題であり、十分に研究されていません。
この論文では、ディープ リレーショナル ラーニングに基づいて、この問題に対する 2 つの新しいソリューションを提案します。
まず、特徴間の暗黙的な関係情報を効果的にモデル化して医用画像セグメンテーションを実行する、コンテキストを意識した完全な畳み込みネットワークを提案します。
このネットワークは、Multi Modal Brain Tumor Segmentation 2017 (BraTS2017) および Multi Modal Brain Tumor Segmentation 2018 (BraTS2018) データ セットで最先端のセグメンテーション結果を達成します。
その後、隣接するフレーム間の明示的な空間関係を学習することにより、正確な医用画像モザイクを実現する新しい階層型ホモグラフィ推定ネットワークを提案します。
UCL Fetoscopy Placenta データセットを使用して実験を行い、階層型ホモグラフィ推定ネットワークは、他の最先端のモザイク方法よりも優れており、目に見えないフレームで堅牢で意味のあるモザイク結果を生成します。
要約(オリジナル)
In the past ten years, with the help of deep learning, especially the rapid development of deep neural networks, medical image analysis has made remarkable progress. However, how to effectively use the relational information between various tissues or organs in medical images is still a very challenging problem, and it has not been fully studied. In this thesis, we propose two novel solutions to this problem based on deep relational learning. First, we propose a context-aware fully convolutional network that effectively models implicit relation information between features to perform medical image segmentation. The network achieves the state-of-the-art segmentation results on the Multi Modal Brain Tumor Segmentation 2017 (BraTS2017) and Multi Modal Brain Tumor Segmentation 2018 (BraTS2018) data sets. Subsequently, we propose a new hierarchical homography estimation network to achieve accurate medical image mosaicing by learning the explicit spatial relationship between adjacent frames. We use the UCL Fetoscopy Placenta dataset to conduct experiments and our hierarchical homography estimation network outperforms the other state-of-the-art mosaicing methods while generating robust and meaningful mosaicing result on unseen frames.
arxiv情報
著者 | Zhihua Liu |
発行日 | 2023-03-28 16:10:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google