Gradient-Based Adversarial and Out-of-Distribution Detection

要約

敵対的および分布外のサンプルを検出するために勾配を利用することを提案します。
ニューラルネットワークの効果的な表現度を調べるために、交絡ラベル(トレーニング中に見られる通常のラベルとは異なるラベル)を勾配生成に導入します。
勾配は、モデルが特定の入力を適切に表現するために必要な変更の量を表し、ネットワークアーキテクチャプロパティとトレーニングデータによって確立されたモデルの表現力への洞察を提供します。
異なるデザインのラベルを導入することにより、推論中の勾配生成のためのグラウンドトゥルースラベルへの依存を取り除きます。
勾配ベースのアプローチでは、ハイパーパラメータの調整や追加の処理を行わなくても、モデルの効果的な表現度に基づいて入力の異常をキャプチャでき、敵対的および分布外の検出のための最先端の方法よりも優れていることを示します。

要約(オリジナル)

We propose to utilize gradients for detecting adversarial and out-of-distribution samples. We introduce confounding labels — labels that differ from normal labels seen during training — in gradient generation to probe the effective expressivity of neural networks. Gradients depict the amount of change required for a model to properly represent given inputs, providing insight into the representational power of the model established by network architectural properties as well as training data. By introducing a label of different design, we remove the dependency on ground truth labels for gradient generation during inference. We show that our gradient-based approach allows for capturing the anomaly in inputs based on the effective expressivity of the models with no hyperparameter tuning or additional processing, and outperforms state-of-the-art methods for adversarial and out-of-distribution detection.

arxiv情報

著者 Jinsol Lee,Mohit Prabhushankar,Ghassan AlRegib
発行日 2022-06-16 15:50:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク