要約
最近の深層学習の進歩は、可逆ステガノグラフィの分野にパラダイム シフトをもたらしました。
リバーシブル ステガノグラフィの基本的な柱は、ディープ ニューラル ネットワークを介して実現できる予測モデリングです。
ただし、一部の分布外およびノイズの多いデータに関する推論には、重要なエラーが存在します。
この問題を考慮して、ベイズ深層学習の理論的枠組みに基づいて予測モデルの不確実性を考慮し、それによって適応ステガノグラフィ システムを作成することを提案します。
最新の深層学習モデルのほとんどは、予測のみを提供し、不確実性の測定を提供していないため、決定論的であると見なされています。
ベイジアン ニューラル ネットワークは、深層学習に確率論的視点をもたらし、自己認識型のインテリジェントな機械と見なすことができます。
つまり、自分の限界を知っているマシンです。
不確実性を定量化するために、ベイジアン統計を適用して予測分布をモデル化し、確率的フォワード パスを使用したモンテカルロ サンプリングによって近似します。
さらに、予測の不確実性を偶然的および認識論的な不確実性に解きほぐすことができ、これらの量を教師なしで学習できることを示します。
実験結果は、ステガノグラフィのレート歪み性能に対するベイジアンの不確実性分析によってもたらされる改善を示しています。
要約(オリジナル)
Recent advances in deep learning have led to a paradigm shift in the field of reversible steganography. A fundamental pillar of reversible steganography is predictive modelling which can be realised via deep neural networks. However, non-trivial errors exist in inferences about some out-of-distribution and noisy data. In view of this issue, we propose to consider uncertainty in predictive models based upon a theoretical framework of Bayesian deep learning, thereby creating an adaptive steganographic system. Most modern deep-learning models are regarded as deterministic because they only offer predictions while failing to provide uncertainty measurement. Bayesian neural networks bring a probabilistic perspective to deep learning and can be regarded as self-aware intelligent machinery; that is, a machine that knows its own limitations. To quantify uncertainty, we apply Bayesian statistics to model the predictive distribution and approximate it through Monte Carlo sampling with stochastic forward passes. We further show that predictive uncertainty can be disentangled into aleatoric and epistemic uncertainties and these quantities can be learnt unsupervised. Experimental results demonstrate an improvement delivered by Bayesian uncertainty analysis upon steganographic rate-distortion performance.
arxiv情報
著者 | Ching-Chun Chang |
発行日 | 2023-03-07 13:11:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google