要約
現在のコンピュータ ビジョン モデルの不安定性に起因する敵対的な例は、あらゆるアプリケーションを侵害する可能性があるため、非常に重要なトピックです。
この論文では、a) データの対称性 (並進不変性)、b) 分類タスクのカテゴリー的性質、c) 画像をオブジェクト自体として分類する際の基本的な矛盾により、不安定性が避けられないことを示します。
この問題は、トレーニング データの非網羅的なラベル付けによってさらに悪化します。
したがって、不安定性はコンピュータ ビジョンの問題が現在どのように定式化されているかに必然的な結果であると結論付けます。
問題を完全に取り除くことはできませんが、原因を分析することで、部分的に問題を軽減する方法に到達しました。
これらには、i) 画像の解像度の向上、ii) 画像のコンテキスト情報の提供、iii) トレーニング データの徹底的なラベル付け、iv) 攻撃者によるコンピューター ビジョン システムへの頻繁なアクセスの防止が含まれます。
要約(オリジナル)
Adversarial examples resulting from instability of current computer vision models are an extremely important topic due to their potential to compromise any application. In this paper we demonstrate that instability is inevitable due to a) symmetries (translational invariance) of the data, b) the categorical nature of the classification task, and c) the fundamental discrepancy of classifying images as objects themselves. The issue is further exacerbated by non-exhaustive labelling of the training data. Therefore we conclude that instability is a necessary result of how the problem of computer vision is currently formulated. While the problem cannot be eliminated, through the analysis of the causes, we have arrived at ways how it can be partially alleviated. These include i) increasing the resolution of images, ii) providing contextual information for the image, iii) exhaustive labelling of training data, and iv) preventing attackers from frequent access to the computer vision system.
arxiv情報
著者 | Oliver Turnbull,George Cevora |
発行日 | 2023-10-26 16:48:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google