Towards Calibrated Losses for Adversarial Robust Reject Option Classification

要約

敵対的な攻撃に対する堅牢性は、自動運転や医療診断などのいくつかのアプリケーションにおける分類器にとって重要な特性です。また、誤分類のコストが非常に高いこのようなシナリオでは、いつ予測を控えるべきかを知ることが重要になります。
自然な疑問は、入力ポイントが敵対的に摂動され、分類器が予測を回避できるシナリオで確実に学習するためにどのサロゲートを使用できるかということです。
この論文は、「敵対的ロバスト拒否オプション」設定で調整されたサロゲートを特徴付け、設計することを目的としています。
まず、敵対的なロバストな拒否オプション損失 $\ell_{d}^{\gamma}$ を提案し、それを線形分類器の仮説セット ($\mathcal{H}_{\textrm{lin}}$) に対して分析します。
次に、$(\ell_{d}^{\gamma},\mathcal{H}_{\textrm{lin}})$- 校正されるサロゲートの完全な特性評価結果を提供します。
$\ell_{d}^{\gamma}$ に対するサロゲートを設計することの難しさを実証するために、凸型サロゲートと準凹型の条件付きリスク ケースに対する負のキャリブレーション結果を示します (これらは、拒否オプションなしの敵対的設定で正のキャリブレーションを提供しました)。
また、シフト ダブル ランプ損失 (DRL) とシフト ダブル シグモイド損失 (DSL) が校正条件を満たしていることを経験的に主張します。
最後に、合成的に生成されたデータセット上の敵対的な摂動に対するシフト DRL とシフト DSL の堅牢性を実証します。

要約(オリジナル)

Robustness towards adversarial attacks is a vital property for classifiers in several applications such as autonomous driving, medical diagnosis, etc. Also, in such scenarios, where the cost of misclassification is very high, knowing when to abstain from prediction becomes crucial. A natural question is which surrogates can be used to ensure learning in scenarios where the input points are adversarially perturbed and the classifier can abstain from prediction? This paper aims to characterize and design surrogates calibrated in ‘Adversarial Robust Reject Option’ setting. First, we propose an adversarial robust reject option loss $\ell_{d}^{\gamma}$ and analyze it for the hypothesis set of linear classifiers ($\mathcal{H}_{\textrm{lin}}$). Next, we provide a complete characterization result for any surrogate to be $(\ell_{d}^{\gamma},\mathcal{H}_{\textrm{lin}})$- calibrated. To demonstrate the difficulty in designing surrogates to $\ell_{d}^{\gamma}$, we show negative calibration results for convex surrogates and quasi-concave conditional risk cases (these gave positive calibration in adversarial setting without reject option). We also empirically argue that Shifted Double Ramp Loss (DRL) and Shifted Double Sigmoid Loss (DSL) satisfy the calibration conditions. Finally, we demonstrate the robustness of shifted DRL and shifted DSL against adversarial perturbations on a synthetically generated dataset.

arxiv情報

著者 Vrund Shah,Tejas Chaudhari,Naresh Manwani
発行日 2024-10-14 17:17:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク