Adversarial Distortion Learning for Medical Image Denoising

要約

我々は、2 次元および 3 次元 (2D/3D) 生物医学画像データのノイズを除去するための新しい敵対的歪み学習 (ADL) を紹介します。
提案された ADL は、デノイザーとディスクリミネーターという 2 つの自動エンコーダーで構成されます。
デノイザーは入力データからノイズを除去し、ディスクリミネーターはノイズを除去した結果をノイズのない結果と比較します。
このプロセスは、弁別器がノイズ除去されたデータと参照データを区別できなくなるまで繰り返されます。
デノイザーとディスクリミネーターはどちらも、Efficient-Unet と呼ばれる提案された自動エンコーダーに基づいて構築されています。
Efficient-Unet は、バックボーンで残差ブロックと新しいピラミッド型アプローチを使用して、特徴マップを効率的に抽出して再利用する軽量アーキテクチャを備えています。
トレーニング中、テクスチャ情報とコントラストは 2 つの新しい損失関数によって制御されます。
Efficient-Unet のアーキテクチャにより、提案された方法をあらゆる種類の生物医学データに一般化できます。
私たちのネットワークの 2D バージョンは ImageNet でトレーニングされ、分布が ImageNet とは完全に異なる生物医学データセットでテストされました。
したがって、再トレーニングの必要はありません。
磁気共鳴画像法 (MRI)、皮膚鏡検査、電子顕微鏡検査、および X 線データセットで実行された実験結果は、提案された方法が各ベンチマークで最高の結果を達成したことを示しています。
私たちの実装と事前トレーニングされたモデルは https://github.com/mogvision/ADL で入手できます。

要約(オリジナル)

We present a novel adversarial distortion learning (ADL) for denoising two- and three-dimensional (2D/3D) biomedical image data. The proposed ADL consists of two auto-encoders: a denoiser and a discriminator. The denoiser removes noise from input data and the discriminator compares the denoised result to its noise-free counterpart. This process is repeated until the discriminator cannot differentiate the denoised data from the reference. Both the denoiser and the discriminator are built upon a proposed auto-encoder called Efficient-Unet. Efficient-Unet has a light architecture that uses the residual blocks and a novel pyramidal approach in the backbone to efficiently extract and re-use feature maps. During training, the textural information and contrast are controlled by two novel loss functions. The architecture of Efficient-Unet allows generalizing the proposed method to any sort of biomedical data. The 2D version of our network was trained on ImageNet and tested on biomedical datasets whose distribution is completely different from ImageNet; so, there is no need for re-training. Experimental results carried out on magnetic resonance imaging (MRI), dermatoscopy, electron microscopy and X-ray datasets show that the proposed method achieved the best on each benchmark. Our implementation and pre-trained models are available at https://github.com/mogvision/ADL.

arxiv情報

著者 Morteza Ghahremani,Mohammad Khateri,Alejandra Sierra,Jussi Tohka
発行日 2024-03-12 16:36:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク