要約
等変イメージング (EI) 正則化は、グラウンドトゥルース データを必要とせずに、ディープ イメージング ネットワークの教師なしトレーニングを行うための事実上の技術となっています。
現在、EI ベースの教師なしトレーニング パラダイムには、高次元アプリケーションの非効率につながる重大な計算冗長性があることを観察し、加速のためにランダム化スケッチ手法を活用するスケッチ EI 正則化を提案します。
次に、スケッチされた EI 正則化を拡張して、単一画像およびタスクに適応した再構成に効率的に適用できる、高速化された深層内部学習フレームワークであるスケッチ等変深層画像事前 (Sk-EI-DIP) を開発します。
さらに、ネットワーク適応タスクについては、正規化層のみを最適化することで EI-DIP と Sk-EI-DIP の両方を高速化するためのパラメーター効率の高いアプローチを提案します。
X 線 CT 画像再構成タスクに関する私たちの数値研究は、私たちのアプローチが単一入力設定で標準的な EI ベースの対応物を上回る桁違いの計算高速化とテスト時のネットワーク適応を達成できることを実証しています。
要約(オリジナル)
Equivariant Imaging (EI) regularization has become the de-facto technique for unsupervised training of deep imaging networks, without any need of ground-truth data. Observing that the EI-based unsupervised training paradigm currently has significant computational redundancy leading to inefficiency in high-dimensional applications, we propose a sketched EI regularization which leverages the randomized sketching techniques for acceleration. We then extend our sketched EI regularization to develop an accelerated deep internal learning framework — Sketched Equivariant Deep Image Prior (Sk-EI-DIP), which can be efficiently applied for single-image and task-adapted reconstruction. Additionally, for network adaptation tasks, we propose a parameter-efficient approach for accelerating both EI-DIP and Sk-EI-DIP via optimizing only the normalization layers. Our numerical study on X-ray CT image reconstruction tasks demonstrate that our approach can achieve order-of-magnitude computational acceleration over standard EI-based counterpart in single-input setting, and network adaptation at test time.
arxiv情報
著者 | Guixian Xu,Jinglai Li,Junqi Tang |
発行日 | 2024-11-22 18:29:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google