要約
ディープ ニューラル ネットワーク (DNN) は、画像分類、オブジェクト検出、セグメンテーションなどのコンピューター ビジョン タスクで広く使用されています。
一方、最近の研究では、手動によるデジタル摂動や入力画像の歪みに対して脆弱であることが示されています。
ネットワークの精度は、トレーニング データセットのデータ分布に著しく影響されます。
RAW イメージをスケーリングすると、配布範囲外のデータが作成されるため、ネットワークを騙す敵対的な攻撃が可能になります。
この研究では、ImageNet Challenge データセットのサブセットをさまざまな倍数でスケーリングすることにより、スケーリング歪みデータセット ImageNet-CS を提案します。
私たちの研究の目的は、高度な DNN のパフォーマンスに対するスケーリングされた画像の影響を研究することです。
私たちは、提案された ImageNet-CS 上でいくつかの最先端のディープ ニューラル ネットワーク アーキテクチャで実験を実行しました。その結果、スケーリング サイズと精度の低下の間に有意な正の相関関係があることが示されました。
さらに、ResNet50 アーキテクチャに基づいて、私たちが提案する ImageNet-CS 上で、Augmix、Revisiting、Normalizer Free など、最近提案された堅牢なトレーニング手法と戦略のパフォーマンスに関するテストをいくつか示します。
実験結果は、これらの堅牢なトレーニング手法により、スケーリング変換に対するネットワークの堅牢性を向上させることができることを示しています。
要約(オリジナル)
Deep neural networks (DNNs) have been widely used in computer vision tasks like image classification, object detection and segmentation. Whereas recent studies have shown their vulnerability to manual digital perturbations or distortion in the input images. The accuracy of the networks is remarkably influenced by the data distribution of their training dataset. Scaling the raw images creates out-of-distribution data, which makes it a possible adversarial attack to fool the networks. In this work, we propose a Scaling-distortion dataset ImageNet-CS by Scaling a subset of the ImageNet Challenge dataset by different multiples. The aim of our work is to study the impact of scaled images on the performance of advanced DNNs. We perform experiments on several state-of-the-art deep neural network architectures on the proposed ImageNet-CS, and the results show a significant positive correlation between scaling size and accuracy decline. Moreover, based on ResNet50 architecture, we demonstrate some tests on the performance of recent proposed robust training techniques and strategies like Augmix, Revisiting and Normalizer Free on our proposed ImageNet-CS. Experiment results have shown that these robust training techniques can improve networks’ robustness to scaling transformation.
arxiv情報
著者 | Chengyin Hu,Weiwen Shi |
発行日 | 2023-05-23 15:46:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google