Probabilistic Robustness in Deep Learning: A Concise yet Comprehensive Guide

要約

Deep Learning(DL)は、さまざまな安全性が批判的なアプリケーションにわたって重要な可能性を実証していますが、その堅牢性を確保することは依然として重要な課題です。
敵対的な堅牢性は最悪のシナリオで広範囲に研究されていますが、確率的堅牢性(PR)は、確率的摂動下での障害の可能性を定量化することにより、より実用的な視点を提供します。
このペーパーでは、PRの簡潔でありながら包括的な概要を提供し、その正式な定義、評価、および強化方法をカバーしています。
PRを改善するために特別に設計された敵対的なトレーニングのための再定式化された「MIN-MAX」最適化フレームワークを導入します。
さらに、PR検証証拠のシステムレベルの安全保証への統合を調査し、DLモデルレベルの堅牢性をシステムレベルのクレームに変換する際の課題に対処します。
最後に、PR評価方法のベンチマーク、PRの生成的AIタスクへの拡張、システムレベルの統合のための厳密な方法論とケーススタディの開発など、オープンな研究の質問を強調します。

要約(オリジナル)

Deep learning (DL) has demonstrated significant potential across various safety-critical applications, yet ensuring its robustness remains a key challenge. While adversarial robustness has been extensively studied in worst-case scenarios, probabilistic robustness (PR) offers a more practical perspective by quantifying the likelihood of failures under stochastic perturbations. This paper provides a concise yet comprehensive overview of PR, covering its formal definitions, evaluation and enhancement methods. We introduce a reformulated ”min-max” optimisation framework for adversarial training specifically designed to improve PR. Furthermore, we explore the integration of PR verification evidence into system-level safety assurance, addressing challenges in translating DL model-level robustness to system-level claims. Finally, we highlight open research questions, including benchmarking PR evaluation methods, extending PR to generative AI tasks, and developing rigorous methodologies and case studies for system-level integration.

arxiv情報

著者 Xingyu Zhao
発行日 2025-02-20 18:47:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク