SoK: Certified Robustness for Deep Neural Networks

要約

タイトル:深層ニューラルネットワークの認定された頑健性に関するSoK

要約:

– 深層ニューラルネットワーク(DNN)の進歩により、様々なタスクで最先端の性能が発揮されるようになった。
– しかし、最近の研究では、DNNは敵対的攻撃に対して脆弱であることが示されており、自律走行などの安全上のアプリケーションにこれらのモデルを展開する際には大きな懸念がある。
– 敵対的攻撃に対するさまざまな防御手法が提案されており、経験的防御、認定された頑健アプローチなどが含まれる。
– 経験的防御は通常、頑健性証明を提供せずに適応的に攻撃されることがあるが、認定された頑健アプローチは、特定の条件下で、あらゆる攻撃に対する頑健精度の下限を提供する頑健性検証および対応する頑健性トレーニングアプローチで構成される。
– 本論文では、認定された頑健アプローチと関連する実践的・理論的なインプリケーションおよび結果を体系的に整理し、さらに異なるデータセット上で既存の頑健性検証およびトレーニングアプローチの包括的なベンチマークを提供する。
– 具体的には、次のことを行います。1) 頑健性検証およびトレーニングアプローチの分類法を提供し、代表的なアルゴリズムの方法論をまとめる。2) これらのアプローチの特徴、強み、制限、および基本的な関連性を明らかにする。3) DNNの認定された頑健アプローチにおける現在の研究進展、理論的な障壁、主要な課題、および将来の方向について議論する。4) 20以上の代表的な認定された頑健アプローチを評価するためのオープンソースの統一プラットフォームを提供する。

要約(オリジナル)

Great advances in deep neural networks (DNNs) have led to state-of-the-art performance on a wide range of tasks. However, recent studies have shown that DNNs are vulnerable to adversarial attacks, which have brought great concerns when deploying these models to safety-critical applications such as autonomous driving. Different defense approaches have been proposed against adversarial attacks, including: a) empirical defenses, which can usually be adaptively attacked again without providing robustness certification; and b) certifiably robust approaches, which consist of robustness verification providing the lower bound of robust accuracy against any attacks under certain conditions and corresponding robust training approaches. In this paper, we systematize certifiably robust approaches and related practical and theoretical implications and findings. We also provide the first comprehensive benchmark on existing robustness verification and training approaches on different datasets. In particular, we 1) provide a taxonomy for the robustness verification and training approaches, as well as summarize the methodologies for representative algorithms, 2) reveal the characteristics, strengths, limitations, and fundamental connections among these approaches, 3) discuss current research progresses, theoretical barriers, main challenges, and future directions for certifiably robust approaches for DNNs, and 4) provide an open-sourced unified platform to evaluate 20+ representative certifiably robust approaches.

arxiv情報

著者 Linyi Li,Tao Xie,Bo Li
発行日 2023-04-12 08:51:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CR, cs.LG, stat.ML パーマリンク