要約
セーフティクリティカルな深層学習アプリケーションにおいて、ロバスト性測定は展開前の重要なフェーズである。しかし、既存のロバスト性検証手法は、機械学習システムを実世界に展開するためには十分に実用的ではありません。一方、これらの手法は、摂動がディープニューラルネットワーク(DNN)を「騙す」ことができないと主張しようとしていますが、これは実際には厳しすぎる可能性があります。一方、既存の研究では、ピクセル空間上の$L_p$境界付き加法摂動を厳密に考慮しているが、色ずれや幾何学的変換などの摂動は実世界でより実用的かつ頻繁に発生するものである。そこで、実用的な観点から、適応濃度に基づく新規かつ一般的な{it probabilistic robustness assessment method}(PRoA)を提示し、機能的摂動に対する深層学習モデルの頑健性を測定することが可能であることを示す。PRoAは、モデルの確率的ロバスト性、 \textit{i.e.} 、学習済みモデルが展開後に遭遇する故障の確率について統計的保証を提供することができます。我々の実験は、広範な機能摂動に対する確率的ロバスト性の評価という点で、PRoAの有効性と柔軟性を示し、PRoAは既存の最先端ベースラインと比較して、様々な大規模ディープニューラルネットワークにうまくスケールすることができます。再現性を高めるために、本ツールをGitHubで公開しています。\url{ https://github.com/TrustAI/PRoA} で公開しています。
要約(オリジナル)
In safety-critical deep learning applications robustness measurement is a vital pre-deployment phase. However, existing robustness verification methods are not sufficiently practical for deploying machine learning systems in the real world. On the one hand, these methods attempt to claim that no perturbations can “fool” deep neural networks (DNNs), which may be too stringent in practice. On the other hand, existing works rigorously consider $L_p$ bounded additive perturbations on the pixel space, although perturbations, such as colour shifting and geometric transformations, are more practically and frequently occurring in the real world. Thus, from the practical standpoint, we present a novel and general {\it probabilistic robustness assessment method} (PRoA) based on the adaptive concentration, and it can measure the robustness of deep learning models against functional perturbations. PRoA can provide statistical guarantees on the probabilistic robustness of a model, \textit{i.e.}, the probability of failure encountered by the trained model after deployment. Our experiments demonstrate the effectiveness and flexibility of PRoA in terms of evaluating the probabilistic robustness against a broad range of functional perturbations, and PRoA can scale well to various large-scale deep neural networks compared to existing state-of-the-art baselines. For the purpose of reproducibility, we release our tool on GitHub: \url{ https://github.com/TrustAI/PRoA}.
arxiv情報
著者 | Tianle Zhang,Wenjie Ruan,Jonathan E. Fieldsend |
発行日 | 2022-07-05 13:27:38+00:00 |
arxivサイト | arxiv_id(pdf) |