Probing the Purview of Neural Networks via Gradient Analysis

要約

【タイトル】ニューラルネットワークのグラデーション分析を通じた能力範囲の探求

【要約】

・ニューラルネットワークのデータ依存的能力と異常な入力データの評価を行う。
・データ依存的能力とは、トレーニングデータから学習された特徴によって構成されたモデルの知識ベースを分析することができる。
・プルビューとは、トレーニングデータとは異なる入力サンプルを特徴づけるために必要な追加の能力を定義する。
・ネットワークのプルビューを調べるために、グラデーションを利用して、モデルが与えられた入力をより正確に特徴づけるために必要な変化量を測定する。
・グラウンドトゥルースのラベルに依存しないグラデーション生成のために、複数のカテゴリーのラベルを組み合わせた混乱ラベルを導入する。
・学習済みの特徴量で正確に表現できない入力を効果的に区別することができる。
・外部分布、アドバーサル、壊れたサンプルなど、異常な入力の検出に適用する。
・ハイパーパラメーター調整や追加のデータ処理は必要なく、最新の手法と比較して、AUROCスコアで2.7%、19.8%、および35.6%向上する。

要約(オリジナル)

We analyze the data-dependent capacity of neural networks and assess anomalies in inputs from the perspective of networks during inference. The notion of data-dependent capacity allows for analyzing the knowledge base of a model populated by learned features from training data. We define purview as the additional capacity necessary to characterize inference samples that differ from the training data. To probe the purview of a network, we utilize gradients to measure the amount of change required for the model to characterize the given inputs more accurately. To eliminate the dependency on ground-truth labels in generating gradients, we introduce confounding labels that are formulated by combining multiple categorical labels. We demonstrate that our gradient-based approach can effectively differentiate inputs that cannot be accurately represented with learned features. We utilize our approach in applications of detecting anomalous inputs, including out-of-distribution, adversarial, and corrupted samples. Our approach requires no hyperparameter tuning or additional data processing and outperforms state-of-the-art methods by up to 2.7%, 19.8%, and 35.6% of AUROC scores, respectively.

arxiv情報

著者 Jinsol Lee,Charlie Lehman,Mohit Prabhushankar,Ghassan AlRegib
発行日 2023-04-06 03:02:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク