要約
コンピュータ断層撮影 (CT) は、画像逆問題の顕著な例であり、まばらな X 線投影などの劣化した測定設定におけるデータ駆動型手法の比類のないパフォーマンスを強調しています。
深層学習アプローチのかなりの部分は大規模な教師ありデータセットの恩恵を受けていますが、それらを新しい実験設定に一般化することはできません。
対照的に、完全に教師なしの手法、特にスコアベースの生成モデルを使用する手法は、テスト時に柔軟でありながら、教師ありのアプローチと比較して同等以上のパフォーマンスを最近実証しています。
ただし、優れた一般化特性を得るにはかなりの量のトレーニング データが必要なため、使用例は限られています。
深層畳み込みネットワークの暗黙的な自然バイアスを利用する別の教師なしアプローチである Deep Image Prior は、再構成問題を再パラメータ化することでスパース CT を解決するために最近採用されました。
この方法ではトレーニング データセットは必要ありませんが、データ駆動型の方法と比較すると、再構成に弱い事前条件が適用されます。
これら 2 つの戦略間のギャップを埋めるために、生成潜在最適化フレームワーク (cGLO) に対する教師なし条件付きアプローチを提案します。
DIP と同様に、トレーニング データセットがなければ、cGLO はデコーダ ネットワークの構造的バイアスの恩恵を受けます。
ただし、同じデコーダ ネットワークを通じて同時に再構築される複数のスライス間で共有される尤度目標の効果として、先例はさらに強化されます。
さらに、デコーダのパラメータは、再構成を強化するために、教師なしの、最終的には非常に小さなトレーニング データセットに基づいて初期化される場合があります。
得られたアプローチは、複数のトレーニング データセット サイズとさまざまな数の視野角を使用して、全線量スパース ビュー CT でテストされます。
要約(オリジナル)
Computed Tomography (CT) is a prominent example of Imaging Inverse Problem highlighting the unrivaled performances of data-driven methods in degraded measurements setups like sparse X-ray projections. Although a significant proportion of deep learning approaches benefit from large supervised datasets, they cannot generalize to new experimental setups. In contrast, fully unsupervised techniques, most notably using score-based generative models, have recently demonstrated similar or better performances compared to supervised approaches while being flexible at test time. However, their use cases are limited as they need considerable amounts of training data to have good generalization properties. Another unsupervised approach taking advantage of the implicit natural bias of deep convolutional networks, Deep Image Prior, has recently been adapted to solve sparse CT by reparameterizing the reconstruction problem. Although this methodology does not require any training dataset, it enforces a weaker prior on the reconstructions when compared to data-driven methods. To fill the gap between these two strategies, we propose an unsupervised conditional approach to the Generative Latent Optimization framework (cGLO). Similarly to DIP, without any training dataset, cGLO benefits from the structural bias of a decoder network. However, the prior is further reinforced as the effect of a likelihood objective shared between multiple slices being reconstructed simultaneously through the same decoder network. In addition, the parameters of the decoder may be initialized on an unsupervised, and eventually very small, training dataset to enhance the reconstruction. The resulting approach is tested on full-dose sparse-view CT using multiple training dataset sizes and varying numbers of viewing angles.
arxiv情報
著者 | Thomas Braure,Delphine Lazaro,David Hateau,Vincent Brandon,Kévin Ginsburger |
発行日 | 2024-04-30 13:59:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google