Enumerating Safe Regions in Deep Neural Networks with Provable Probabilistic Guarantees

要約

安全な領域を特定することは、ディープ ニューラル ネットワーク (DNN) に基づくシステムの信頼性を保証するための重要なポイントです。
この目的のために、AllDNN-Verification 問題を導入します。安全性プロパティと DNN が与えられた場合、安全なプロパティ入力ドメインのすべての領域のセット、つまりプロパティが保持される領域を列挙します。
問題の #P 硬度のため、epsilon-ProVe と呼ばれる効率的な近似方法を提案します。
私たちのアプローチは、許容限界の統計的予測によって得られる出力到達可能セットの制御可能な過小評価を利用し、安全領域の厳密な(証明可能な確率的保証を伴う)下限推定を提供できます。
さまざまな標準ベンチマークでの実証的評価は、この方法の拡張性と有効性を示しており、この新しいタイプの DNN 検証に貴重な洞察を提供します。

要約(オリジナル)

Identifying safe areas is a key point to guarantee trust for systems that are based on Deep Neural Networks (DNNs). To this end, we introduce the AllDNN-Verification problem: given a safety property and a DNN, enumerate the set of all the regions of the property input domain which are safe, i.e., where the property does hold. Due to the #P-hardness of the problem, we propose an efficient approximation method called epsilon-ProVe. Our approach exploits a controllable underestimation of the output reachable sets obtained via statistical prediction of tolerance limits, and can provide a tight (with provable probabilistic guarantees) lower estimate of the safe areas. Our empirical evaluation on different standard benchmarks shows the scalability and effectiveness of our method, offering valuable insights for this new type of verification of DNNs.

arxiv情報

著者 Luca Marzari,Davide Corsi,Enrico Marchesini,Alessandro Farinelli,Ferdinando Cicalese
発行日 2024-02-20 17:35:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク