Representing Noisy Image Without Denoising

要約

人工知能における長年のトピックは、ノイズの多い画像からのパターンの効果的な認識です。
この点に関して、最近のデータ駆動型パラダイムでは、1) トレーニング フェーズでノイズの多いサンプルを追加することによって表現の堅牢性を向上させる (つまり、データ拡張)、または 2) 逆問題 (つまり、画像
ノイズ除去)。
しかし、そのような方法は、一般的に非効率的なプロセスと不安定な結果を示し、実用的なアプリケーションを制限します。
この論文では、前処理としてのノイズ除去を行わずに、ノイズの多い画像からロバストな表現を直接導き出すことを目的とした非学習パラダイムを探ります。
ここで、ノイズに強い表現は、ラドン空間 (FMR) の分数次モーメントとして設計され、直交性と回転不変性の有益な特性も備えています。
以前の整数次数法とは異なり、私たちの作業は特殊なケースとして古典的な方法を採用したより一般的な設計であり、導入された分数次数パラメーターは、古典的な方法では利用できない時間-周波数分析機能を提供します。
正式には、FMR を構築するための暗黙的パスと明示的パスの両方が詳細に説明されています。
特にノイズのロバスト性、回転の不変性、および時間-周波数の識別可能性について、当社の FMR の独自性と有用性を実証するために、広範なシミュレーション実験と画像セキュリティ アプリケーションが提供されています。

要約(オリジナル)

A long-standing topic in artificial intelligence is the effective recognition of patterns from noisy images. In this regard, the recent data-driven paradigm considers 1) improving the representation robustness by adding noisy samples in training phase (i.e., data augmentation) or 2) pre-processing the noisy image by learning to solve the inverse problem (i.e., image denoising). However, such methods generally exhibit inefficient process and unstable result, limiting their practical applications. In this paper, we explore a non-learning paradigm that aims to derive robust representation directly from noisy images, without the denoising as pre-processing. Here, the noise-robust representation is designed as Fractional-order Moments in Radon space (FMR), with also beneficial properties of orthogonality and rotation invariance. Unlike earlier integer-order methods, our work is a more generic design taking such classical methods as special cases, and the introduced fractional-order parameter offers time-frequency analysis capability that is not available in classical methods. Formally, both implicit and explicit paths for constructing the FMR are discussed in detail. Extensive simulation experiments and an image security application are provided to demonstrate the uniqueness and usefulness of our FMR, especially for noise robustness, rotation invariance, and time-frequency discriminability.

arxiv情報

著者 Shuren Qi,Yushu Zhang,Chao Wang,Tao Xiang,Xiaochun Cao,Yong Xiang
発行日 2023-01-18 10:13:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク