要約
自己教師あり画像ノイズ除去技術は、グラウンド トゥルース ノイズのないデータを必要とせずにノイズ除去モデルをトレーニングできる便利な方法として登場しました。
既存の方法は通常、隣接する断層スライスなど、類似した画像の複数のノイズの多い実現から計算される損失指標を最適化します。
ただし、これらのアプローチでは、MRI やデュアル エネルギー CT などの医用画像診断法で日常的に取得される複数のコントラストを利用できません。
この作業では、複数の測定された画像コントラストからの情報を組み合わせてノイズ除去モデルをトレーニングする、新しい自己教師ありトレーニング スキーム Noise2Contrast を提案します。
ドメイン転送演算子を使用してノイズ除去を積み重ねて、さまざまな画像コントラストの独立したノイズ実現を利用して、自己管理された損失を導き出します。
訓練を受けたノイズ除去オペレーターは、説得力のある定量的および定性的な結果を達成し、脳 MRI データで 4.7 ~ 11.0%/4.8 ~ 7.3% (PSNR/SSIM)、43.6 ~ 50.5%/57.1 で最先端の自己教師あり方法を上回ります。
ノイズの多いベースラインに関して、デュアル エネルギー CT X 線顕微鏡データで -77.1% (PSNR/SSIM)。
さまざまな実際の測定データ セットに関する実験は、Noise2Contrast トレーニングが他のマルチ コントラスト イメージング モダリティに一般化されることを示しています。
要約(オリジナル)
Self-supervised image denoising techniques emerged as convenient methods that allow training denoising models without requiring ground-truth noise-free data. Existing methods usually optimize loss metrics that are calculated from multiple noisy realizations of similar images, e.g., from neighboring tomographic slices. However, those approaches fail to utilize the multiple contrasts that are routinely acquired in medical imaging modalities like MRI or dual-energy CT. In this work, we propose the new self-supervised training scheme Noise2Contrast that combines information from multiple measured image contrasts to train a denoising model. We stack denoising with domain-transfer operators to utilize the independent noise realizations of different image contrasts to derive a self-supervised loss. The trained denoising operator achieves convincing quantitative and qualitative results, outperforming state-of-the-art self-supervised methods by 4.7-11.0%/4.8-7.3% (PSNR/SSIM) on brain MRI data and by 43.6-50.5%/57.1-77.1% (PSNR/SSIM) on dual-energy CT X-ray microscopy data with respect to the noisy baseline. Our experiments on different real measured data sets indicate that Noise2Contrast training generalizes to other multi-contrast imaging modalities.
arxiv情報
| 著者 | Fabian Wagner,Mareike Thies,Laura Pfaff,Noah Maul,Sabrina Pechmann,Mingxuan Gu,Jonas Utz,Oliver Aust,Daniela Weidner,Georgiana Neag,Stefan Uderhardt,Jang-Hwan Choi,Andreas Maier |
| 発行日 | 2022-12-09 13:03:24+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google