要約
深層学習は、可逆ステガノグラフィの有望なソリューションと見なされています。
可逆ステガノグラフィの従来のパイプラインにおける中間操作をバイパスする、モノリシック ニューラル ネットワークによって可逆ステオ システムを表現する傾向が加速しています。
ただし、このエンド ツー エンドのパラダイムには、不完全な可逆性という問題があります。
対照的に、ニューラル ネットワークを従来のパイプラインのモジュールに組み込むモジュラー パラダイムは、数学的説明可能性を備えた可逆性を安定して保証できます。
予測誤差変調は、デジタル画像用の確立された可逆ステガノグラフィ パイプラインです。
これは、予測分析モジュールと可逆コーディング モジュールで構成されています。
可逆性がコーディング モジュールによって独立して管理されることを考えると、分析モジュールにニューラル ネットワークを組み込むことに焦点を絞ります。これは、ピクセル強度を予測する目的と、容量と知覚不能性を決定する上で極めて重要な役割を果たします。
この研究の目的は、ニューラル ネットワークの予測精度に対するさまざまなトレーニング構成の影響を評価し、実用的な洞察を提供することです。
特に、入力画像のさまざまな初期化戦略が学習プロセスにどのように影響するか、およびデュアルレイヤー予測のさまざまなトレーニング戦略が分布シフトの問題にどのように対応するかを調査します。
さらに、さまざまな損失関数を持つさまざまなモデル アーキテクチャのステガノグラフィ パフォーマンスを比較します。
要約(オリジナル)
Deep learning is regarded as a promising solution for reversible steganography. There is an accelerating trend of representing a reversible steo-system by monolithic neural networks, which bypass intermediate operations in traditional pipelines of reversible steganography. This end-to-end paradigm, however, suffers from imperfect reversibility. By contrast, the modular paradigm that incorporates neural networks into modules of traditional pipelines can stably guarantee reversibility with mathematical explainability. Prediction-error modulation is a well-established reversible steganography pipeline for digital images. It consists of a predictive analytics module and a reversible coding module. Given that reversibility is governed independently by the coding module, we narrow our focus to the incorporation of neural networks into the analytics module, which serves the purpose of predicting pixel intensities and a pivotal role in determining capacity and imperceptibility. The objective of this study is to evaluate the impacts of different training configurations upon predictive accuracy of neural networks and provide practical insights. In particular, we investigate how different initialisation strategies for input images may affect the learning process and how different training strategies for dual-layer prediction respond to the problem of distributional shift. Furthermore, we compare steganographic performance of various model architectures with different loss functions.
arxiv情報
著者 | Ching-Chun Chang,Xu Wang,Sisheng Chen,Isao Echizen,Victor Sanchez,Chang-Tsun Li |
発行日 | 2023-03-07 14:05:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google