要約
圧縮センシング (CS) は、従来のサンプリング方法よりも少ない測定値を使用して、まばらな信号の回復を可能にする技術です。
CS 再構成の計算上の課題に対処するために、私たちの目的は、CS を使用して自然画像を再構成するための、解釈可能で簡潔なニューラル ネットワーク モデルを開発することです。
これは、反復収縮しきい値アルゴリズム (ISTA) の 1 つのステップを、ISTA の 1 回の反復を表す深いネットワーク ブロックにマッピングすることで実現します。
学習能力を強化し、構造的多様性を組み込むために、集約残差変換 (ResNeXt) とスクイーズアンド励起 (SE) メカニズムを ISTA ブロックに統合します。
このブロックは深い平衡層として機能し、便利なサンプリングと初期再構成を提供するためにセミテンソル積ネットワーク (STP-Net) に接続されます。
結果として得られたモデルは、MsDC-DEQ-Net と呼ばれ、最先端のネットワークベースの方法と比較して優れたパフォーマンスを示します。
複数の反復ではなく 1 つの反復ブロックのみを使用するため、ディープ アンローリング メソッドと比較してストレージ要件が大幅に削減されます。
ディープ アンローリング モデルとは異なり、MsDC-DEQ-Net は繰り返し使用することができ、計算のトレードオフを考慮しながら再構築の精度を徐々に向上させます。
さらに、このモデルはマルチスケールの拡張畳み込みの恩恵を受け、パフォーマンスをさらに向上させます。
要約(オリジナル)
Compressive sensing (CS) is a technique that enables the recovery of sparse signals using fewer measurements than traditional sampling methods. To address the computational challenges of CS reconstruction, our objective is to develop an interpretable and concise neural network model for reconstructing natural images using CS. We achieve this by mapping one step of the iterative shrinkage thresholding algorithm (ISTA) to a deep network block, representing one iteration of ISTA. To enhance learning ability and incorporate structural diversity, we integrate aggregated residual transformations (ResNeXt) and squeeze-and-excitation (SE) mechanisms into the ISTA block. This block serves as a deep equilibrium layer, connected to a semi-tensor product network (STP-Net) for convenient sampling and providing an initial reconstruction. The resulting model, called MsDC-DEQ-Net, exhibits competitive performance compared to state-of-the-art network-based methods. It significantly reduces storage requirements compared to deep unrolling methods, using only one iteration block instead of multiple iterations. Unlike deep unrolling models, MsDC-DEQ-Net can be iteratively used, gradually improving reconstruction accuracy while considering computation trade-offs. Additionally, the model benefits from multi-scale dilated convolutions, further enhancing performance.
arxiv情報
著者 | Youhao Yu,Richard M. Dansereau |
発行日 | 2024-01-05 16:25:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google