Diffusion Denoised Smoothing for Certified and Adversarial Robust Out-Of-Distribution Detection

要約

機械学習の使用が拡大し続けるにつれて、その安全性を確保することの重要性はどれだけ強調してもしすぎることはありません。
この点に関する主な懸念事項は、特定のサンプルがトレーニング分布からのものであるか、または「配布外」(OOD) サンプルであるかを識別できることです。
さらに、攻撃者は、分類器が自信を持って予測できるように OOD サンプルを操作する可能性があります。
この研究では、ネットワーク アーキテクチャに関係なく、特定のコンポーネントや追加のトレーニングを必要とせずに、入力周りの $\ell_2$ ノルム内で OOD 検出の堅牢性を証明するための新しいアプローチを紹介します。
さらに、配布中のサンプルに対して高レベルの認証済みの敵対的堅牢性を提供しながら、OOD サンプルに対する敵対的攻撃を検出するための現在の技術を改善します。
CIFAR10/100 のすべての OOD 検出メトリクスの平均は、以前のアプローチと比較して $\sim 13 \% / 5\%$ の増加を示しています。

要約(オリジナル)

As the use of machine learning continues to expand, the importance of ensuring its safety cannot be overstated. A key concern in this regard is the ability to identify whether a given sample is from the training distribution, or is an ‘Out-Of-Distribution’ (OOD) sample. In addition, adversaries can manipulate OOD samples in ways that lead a classifier to make a confident prediction. In this study, we present a novel approach for certifying the robustness of OOD detection within a $\ell_2$-norm around the input, regardless of network architecture and without the need for specific components or additional training. Further, we improve current techniques for detecting adversarial attacks on OOD samples, while providing high levels of certified and adversarial robustness on in-distribution samples. The average of all OOD detection metrics on CIFAR10/100 shows an increase of $\sim 13 \% / 5\%$ relative to previous approaches.

arxiv情報

著者 Nicola Franco,Daniel Korth,Jeanette Miriam Lorenz,Karsten Roscher,Stephan Guennemann
発行日 2023-08-10 17:34:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク