要約
この論文では、より「ワイルドなステガナリシス」のコンテキストで可変画像サイズに直面したときの畳み込みニューラル ネットワークのパフォーマンスの不変性を研究します。
最初に、「同様の困難」と「同様のセキュリティ」を所有するデータセットを使用した優れた実験プロトコルの 2 つのアルゴリズムと定義を提案します。
「スマート クロップ 2」アルゴリズムは、さまざまなデータセット間で「同様の困難」を保証する Nearly Nested Image Datasets (NNID) の導入を可能にし、二分法研究アルゴリズムは「同様のセキュリティ」を可能にします。
次に、最先端のアーキテクチャには不変性が存在しないことを示します。
また、トレーニング画像よりも大きい画像でテストするか小さい画像でテストするかによって、動作に違いが見られます。
最後に、実験に基づいて、最先端のアーキテクチャの改善につながる膨張畳み込みを使用することを提案します。
要約(オリジナル)
In this paper, we study the performance invariance of convolutional neural networks when confronted with variable image sizes in the context of a more ‘wild steganalysis’. First, we propose two algorithms and definitions for a fine experimental protocol with datasets owning ‘similar difficulty’ and ‘similar security’. The ‘smart crop 2’ algorithm allows the introduction of the Nearly Nested Image Datasets (NNID) that ensure ‘a similar difficulty’ between various datasets, and a dichotomous research algorithm allows a ‘similar security’. Second, we show that invariance does not exist in state-of-the-art architectures. We also exhibit a difference in behavior depending on whether we test on images larger or smaller than the training images. Finally, based on the experiments, we propose to use the dilated convolution which leads to an improvement of a state-of-the-art architecture.
arxiv情報
著者 | Kévin Planolles,Marc Chaumont,Frédéric Comby |
発行日 | 2023-02-22 18:09:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google