D3C2-Net: Dual-Domain Deep Convolutional Coding Network for Compressive Sensing

要約

最適化アルゴリズムをニューラルネットワーク、ディープアンフォールディングネットワーク(DUN)にマッピングすることで、圧縮センシング(CS)で目覚ましい成功を収めています。
最適化の観点から、DUNは、反復ステップから明確に定義された解釈可能な構造を継承します。
ただし、ニューラルネットワーク設計の観点から、既存のDUNのほとんどは、隣接するステージ間の入力および出力として1チャネル画像を取得する従来の画像ドメイン展開に基づいて本質的に確立されているため、情報送信機能が不十分であり、画像の損失が避けられません。
詳細。
この論文では、上記のボトルネックを打破するために、最初に一般化されたデュアルドメイン最適化フレームワークを提案します。これは、逆イメージングに一般的であり、(1)画像ドメインと(2)畳み込み符号化ドメインの両方のメリットを統合します。
解空間の実行可能領域を制約します。
提案されたフレームワークをディープニューラルネットワークに展開することにより、展開されたすべてのステージを通じて高スループットの機能レベルの画像表現を送信する機能を備えた、CSイメージング用の新しいデュアルドメインディープ畳み込み符号化ネットワーク(D3C2-Net)をさらに設計します。
自然画像とMR画像での実験は、D3C2-Netが他の最先端技術よりも高いパフォーマンスと優れた精度と複雑さのトレードオフを達成することを示しています。

要約(オリジナル)

Mapping optimization algorithms into neural networks, deep unfolding networks (DUNs) have achieved impressive success in compressive sensing (CS). From the perspective of optimization, DUNs inherit a well-defined and interpretable structure from iterative steps. However, from the viewpoint of neural network design, most existing DUNs are inherently established based on traditional image-domain unfolding, which takes one-channel images as inputs and outputs between adjacent stages, resulting in insufficient information transmission capability and inevitable loss of the image details. In this paper, to break the above bottleneck, we first propose a generalized dual-domain optimization framework, which is general for inverse imaging and integrates the merits of both (1) image-domain and (2) convolutional-coding-domain priors to constrain the feasible region in the solution space. By unfolding the proposed framework into deep neural networks, we further design a novel Dual-Domain Deep Convolutional Coding Network (D3C2-Net) for CS imaging with the capability of transmitting high-throughput feature-level image representation through all the unfolded stages. Experiments on natural and MR images demonstrate that our D3C2-Net achieves higher performance and better accuracy-complexity trade-offs than other state-of-the-arts.

arxiv情報

著者 Weiqi Li,Bin Chen,Jian Zhang
発行日 2022-07-27 14:52:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク