Characterizing Data Point Vulnerability via Average-Case Robustness

要約

機械学習モデルの堅牢性を研究することは、現実世界の設定全体で一貫したモデルの動作を保証するために重要です。
この目的を達成するため、敵対的ロバスト性は標準フレームワークであり、バイナリ レンズを通して予測のロバスト性を検討します。つまり、最悪の場合の敵対的誤分類が入力の周囲の局所領域に存在するか、存在しないかのどちらかです。
ただし、近傍に誤って分類された例が多数あるデータ ポイントほど脆弱性が高いため、この二項対立の観点では脆弱性の程度は考慮されていません。
この研究では、一貫した予測を提供する局所領域内のポイントの割合を測定する、平均ケース ロバスト性と呼ばれるロバスト性の補完的なフレームワークを検討します。
ただし、標準のモンテカルロ手法は特に高次元の入力に対して非効率であるため、この量を計算するのは困難です。
この研究では、マルチクラス分類器の平均的な場合のロバスト性のための最初の分析推定量を提案します。
私たちは、標準的な深層学習モデルに対して推定器が正確かつ効率的であることを経験的に示し、脆弱なデータ ポイントの特定やモデルの堅牢性バイアスの定量化にその推定器が有用であることを実証します。
全体として、私たちのツールは堅牢性を補完するビューを提供し、モデルの動作を特徴付ける能力を向上させます。

要約(オリジナル)

Studying the robustness of machine learning models is important to ensure consistent model behaviour across real-world settings. To this end, adversarial robustness is a standard framework, which views robustness of predictions through a binary lens: either a worst-case adversarial misclassification exists in the local region around an input, or it does not. However, this binary perspective does not account for the degrees of vulnerability, as data points with a larger number of misclassified examples in their neighborhoods are more vulnerable. In this work, we consider a complementary framework for robustness, called average-case robustness, which measures the fraction of points in a local region that provides consistent predictions. However, computing this quantity is hard, as standard Monte Carlo approaches are inefficient especially for high-dimensional inputs. In this work, we propose the first analytical estimators for average-case robustness for multi-class classifiers. We show empirically that our estimators are accurate and efficient for standard deep learning models and demonstrate their usefulness for identifying vulnerable data points, as well as quantifying robustness bias of models. Overall, our tools provide a complementary view to robustness, improving our ability to characterize model behaviour.

arxiv情報

著者 Tessa Han,Suraj Srinivas,Himabindu Lakkaraju
発行日 2024-07-08 17:00:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク