要約
タイトル:勾配解析によるニューラルネットワークの範囲探索
要約:
– ニューラルネットワークのデータに依存する容量と、学習データの学習済み特徴によって形成されたモデルの知識ベースを分析する。
– 新しいデータに対して正確に分類するために必要な追加の容量を「範囲(purview)」と定義する。
– ネットワークの範囲を探索するために、勾配を利用して、モデルが与えられた入力をより正確に特徴づけるために必要な変更量を測定する。
– 勾配を生成する際に正解ラベルに依存しないよう、複数のカテゴリカルラベルを組み合わせた混同ラベルを導入する。
– 学習済み特徴で正確に表現できない入力を効果的に識別することができることを実証する。
– 異常検出、外れ値、敵対的サンプルなどの応用において、他の最新手法に比べて2.7%から35.6%のAUROCスコアでより高いパフォーマンスを発揮する。
– このアプローチは、ハイパーパラメータの調整や追加のデータ処理が不要である。
要約(オリジナル)
We analyze the data-dependent capacity of neural networks and assess anomalies in inputs from the perspective of networks during inference. The notion of data-dependent capacity allows for analyzing the knowledge base of a model populated by learned features from training data. We define purview as the additional capacity necessary to characterize inference samples that differ from the training data. To probe the purview of a network, we utilize gradients to measure the amount of change required for the model to characterize the given inputs more accurately. To eliminate the dependency on ground-truth labels in generating gradients, we introduce confounding labels that are formulated by combining multiple categorical labels. We demonstrate that our gradient-based approach can effectively differentiate inputs that cannot be accurately represented with learned features. We utilize our approach in applications of detecting anomalous inputs, including out-of-distribution, adversarial, and corrupted samples. Our approach requires no hyperparameter tuning or additional data processing and outperforms state-of-the-art methods by up to 2.7%, 19.8%, and 35.6% of AUROC scores, respectively.
arxiv情報
著者 | Jinsol Lee,Charlie Lehman,Mohit Prabhushankar,Ghassan AlRegib |
発行日 | 2023-04-12 06:17:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI