要約
現実世界の赤外線イメージングシステムでは、一貫したストライプノイズ除去モデルを効果的に学習することが不可欠です。
ほとんどの既存の破壊方法は、レベルのセマンティックギャップとグローバルカラム機能の特性評価が不十分であるため、画像を正確に再構築することはできません。
この問題に取り組むために、非対称サンプリング補正ネットワーク(ASCNET)と呼ばれる新しい赤外線画像破壊方法を提案し、グローバルな柱関係を効果的にキャプチャし、U字型フレームワークに埋め込み、包括的な識別表現とシームレスなセマンティック接続を提供します。
私たちのASCNETは、残差HAAR離散ウェーブレット変換(RHDWT)、ピクセルシャッフル(PS)、および列の不均一性補正モジュール(CNCM)の3つのコア要素で構成されています。
具体的には、RHDWTは二重分岐モデリングを使用して、ストライプ方向の事前知識とデータ駆動型のセマンティックインタラクションを効果的に統合して、特徴表現を濃縮する新しいダウンサンプラーです。
ストライプノイズのセマンティックパターンを観察すると、PSはアップサンプラーとして導入され、過度のアプリオリデコードとセマンティックバイアスフリーの画像再構成の実行を防ぎます。
各サンプリングの後、CNCMは長距離依存関係で列の関係をキャプチャします。
CNCMは、列、空間、および自己依存情報を組み込むことにより、シーンの垂直構造とストライプを区別するためのグローバルなコンテキストをよく確立します。
合成データ、実際のデータ、および赤外線の小さなターゲット検出タスクに関する広範な実験は、提案された方法が視覚的および定量的に最先端のシングルイメージ破壊方法を上回ることを示しています。
私たちのコードは、https://github.com/xdfai/ascnetで公開されます。
要約(オリジナル)
In a real-world infrared imaging system, effectively learning a consistent stripe noise removal model is essential. Most existing destriping methods cannot precisely reconstruct images due to cross-level semantic gaps and insufficient characterization of the global column features. To tackle this problem, we propose a novel infrared image destriping method, called Asymmetric Sampling Correction Network (ASCNet), that can effectively capture global column relationships and embed them into a U-shaped framework, providing comprehensive discriminative representation and seamless semantic connectivity. Our ASCNet consists of three core elements: Residual Haar Discrete Wavelet Transform (RHDWT), Pixel Shuffle (PS), and Column Non-uniformity Correction Module (CNCM). Specifically, RHDWT is a novel downsampler that employs double-branch modeling to effectively integrate stripe-directional prior knowledge and data-driven semantic interaction to enrich the feature representation. Observing the semantic patterns crosstalk of stripe noise, PS is introduced as an upsampler to prevent excessive apriori decoding and performing semantic-bias-free image reconstruction. After each sampling, CNCM captures the column relationships in long-range dependencies. By incorporating column, spatial, and self-dependence information, CNCM well establishes a global context to distinguish stripes from the scene’s vertical structures. Extensive experiments on synthetic data, real data, and infrared small target detection tasks demonstrate that the proposed method outperforms state-of-the-art single-image destriping methods both visually and quantitatively. Our code will be made publicly available at https://github.com/xdFai/ASCNet.
arxiv情報
著者 | Shuai Yuan,Hanlin Qin,Xiang Yan,Shiqi Yang,Shuowen Yang,Naveed Akhtar,Huixin Zhou |
発行日 | 2025-01-24 10:29:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google