Adversarial Examples from Dimensional Invariance

要約

【タイトル】次元不変性から生じる敵対的サンプル

【要約】

– 敵対的サンプルは、様々な深層学習モデルおよび浅い学習モデルに対して見つかっており、時折、修正可能なモデル固有のバグ、またはデータセットの特徴そのものであると示唆されてきた。
– この論文は、敵対的サンプルが、入力に対しておおよそ双射マップ$f: \Bbb R^n \to \Bbb R^m; n \neq m$を指定するモデルから生じるおおよその不連続性であることを示す理論的および実証的な結果を提示する。
– また、この不連続性は次元の位相的不変性から生じる。

要約(オリジナル)

Adversarial examples have been found for various deep as well as shallow learning models, and have at various times been suggested to be either fixable model-specific bugs, or else inherent dataset feature, or both. We present theoretical and empirical results to show that adversarial examples are approximate discontinuities resulting from models that specify approximately bijective maps $f: \Bbb R^n \to \Bbb R^m; n \neq m$ over their inputs, and this discontinuity follows from the topological invariance of dimension.

arxiv情報

著者 Benjamin L. Badger
発行日 2023-04-13 14:37:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG, cs.NA, math.NA パーマリンク