Two-stage Progressive Residual Dense Attention Network for Image Denoising

要約

画像ノイズ除去用のディープ畳み込みニューラル ネットワーク (CNN) は、豊富な階層機能を効果的に活用でき、大きな成功を収めています。
ただし、多くのディープ CNN ベースのノイズ除去モデルは、より重要で有用な特徴に注意を払わずに、ノイズを含む画像の階層的特徴を同様に利用するため、比較的パフォーマンスが低下します。
この問題に対処するために、画像ノイズ除去用の新しい 2 段階プログレッシブ残留濃密注意ネットワーク (TSP-RDANet) を設計します。これは、ノイズ除去プロセス全体を 2 つのサブタスクに分割して、段階的にノイズを除去します。
2 つの異なる注意メカニズムベースのノイズ除去ネットワークが 2 つの連続サブタスク用に設計されています。残留密注意モジュール (RDAM) が最初の段階で設計され、ハイブリッド拡張残留密注意モジュール (HDRDAM) が 2 番目の段階で提案されています。

提案されたアテンションモジュールは、異なる畳み込み層間の密な接続を通じて適切な局所特徴を学習することができ、無関係な特徴も抑制することができます。
次に、2 つのサブネットワークはロング スキップ接続によって接続され、浅い機能を保持してノイズ除去パフォーマンスが向上します。
7 つのベンチマーク データセットでの実験により、多くの最先端の方法と比較して、提案された TSP-RDANet が合成画像と実際のノイズ除去画像の両方で良好な結果を得ることができることが検証されました。
TSP-RDANet のコードは https://github.com/WenCongWu/TSP-RDANet で入手できます。

要約(オリジナル)

Deep convolutional neural networks (CNNs) for image denoising can effectively exploit rich hierarchical features and have achieved great success. However, many deep CNN-based denoising models equally utilize the hierarchical features of noisy images without paying attention to the more important and useful features, leading to relatively low performance. To address the issue, we design a new Two-stage Progressive Residual Dense Attention Network (TSP-RDANet) for image denoising, which divides the whole process of denoising into two sub-tasks to remove noise progressively. Two different attention mechanism-based denoising networks are designed for the two sequential sub-tasks: the residual dense attention module (RDAM) is designed for the first stage, and the hybrid dilated residual dense attention module (HDRDAM) is proposed for the second stage. The proposed attention modules are able to learn appropriate local features through dense connection between different convolutional layers, and the irrelevant features can also be suppressed. The two sub-networks are then connected by a long skip connection to retain the shallow feature to enhance the denoising performance. The experiments on seven benchmark datasets have verified that compared with many state-of-the-art methods, the proposed TSP-RDANet can obtain favorable results both on synthetic and real noisy image denoising. The code of our TSP-RDANet is available at https://github.com/WenCongWu/TSP-RDANet.

arxiv情報

著者 Wencong Wu,An Ge,Guannan Lv,Yuelong Xia,Yungang Zhang,Wen Xiong
発行日 2024-01-05 14:31:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク