要約
深い学習に基づいて、ステガノグラフィ画像の質の低さと画像ステガノグラフィモデルのゆっくりとしたネットワーク収束の問題を目指して、このペーパーでは、深い学習画像ステガノグラフィモデルのためのステガノグラフィカリキュラム学習トレーニング戦略(STCL)を提案します。
そのため、モデルが初期段階で不十分なフィッティング能力を持ち、より困難な画像に徐々に拡張している場合、トレーニングのために簡単な画像のみが選択されるように、戦略には、教師モデルとニーポイントベースのトレーニングスケジューリング戦略に基づく難易度評価戦略が含まれます。
第一に、複数の教師モデルがトレーニングされ、複数の教師モデルの下でのステガノグラフィ画像の品質の一貫性が難易度スコアとして使用され、トレーニングサブセットを簡単から難しいものに構築します。
第二に、膝ポイントに基づくトレーニング制御戦略が提案されており、小規模なトレーニングセットに過剰に適合する可能性を減らし、トレーニングプロセスを加速します。
Alaska2、VoC2012、およびImagenetの3つの大規模なパブリックデータセットでの実験結果は、提案された画像ステガノグラフィスキームが複数のアルゴリズムフレームワークの下でモデルパフォーマンスを改善できることを示しています。
\ href {https://github.com/chaos-boops/stcl} {https://github.com/chaos-boops/stcl}でコードを見つけることができます。
要約(オリジナル)
Aiming at the problems of poor quality of steganographic images and slow network convergence of image steganography models based on deep learning, this paper proposes a Steganography Curriculum Learning training strategy (STCL) for deep learning image steganography models. So that only easy images are selected for training when the model has poor fitting ability at the initial stage, and gradually expand to more difficult images, the strategy includes a difficulty evaluation strategy based on the teacher model and an knee point-based training scheduling strategy. Firstly, multiple teacher models are trained, and the consistency of the quality of steganographic images under multiple teacher models is used as the difficulty score to construct the training subsets from easy to difficult. Secondly, a training control strategy based on knee points is proposed to reduce the possibility of overfitting on small training sets and accelerate the training process. Experimental results on three large public datasets, ALASKA2, VOC2012 and ImageNet, show that the proposed image steganography scheme is able to improve the model performance under multiple algorithmic frameworks, which not only has a high PSNR, SSIM score, and decoding accuracy, but also the steganographic images generated by the model under the training of the STCL strategy have a low steganography analysis scores. You can find our code at \href{https://github.com/chaos-boops/STCL}{https://github.com/chaos-boops/STCL}.
arxiv情報
著者 | Fengchun Liu,Tong Zhang,Chunying Zhang |
発行日 | 2025-04-24 14:34:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google