Training Certifiably Robust Neural Networks Against Semantic Perturbations

要約

スケーリングや回転などのセマンティック画像の摂動は、ディープニューラルネットワーク(DNN)を簡単に欺くことが示されています。
したがって、これらの摂動に対して確実にロバストになるようにDNNをトレーニングすることが重要です。
ただし、既存の決定論的セマンティックベリファイアは非常に遅いため、これまでの作業では、決定論的セマンティックロバスト性の目的をトレーニング手順に組み込むことができませんでした。
これらの課題に対処するために、セマンティック画像の摂動に対する決定論的認定ロバスト性のための最初のトレーニングフレームワークである認定セマンティックトレーニング(CST)を提案します。
私たちのフレームワークは、既存の作品とは異なり、トレーニングで使用するのに十分高速な、GPUに最適化された新しいベリファイアを活用しています。
私たちの結果は、CSTを介してトレーニングされたネットワークは、既存の作業に基づいてベースラインを介してトレーニングされたネットワークと比較して、より優れた証明可能なセマンティックロバスト性とクリーンな精度の両方を一貫して達成することを示しています。

要約(オリジナル)

Semantic image perturbations, such as scaling and rotation, have been shown to easily deceive deep neural networks (DNNs). Hence, training DNNs to be certifiably robust to these perturbations is critical. However, no prior work has been able to incorporate the objective of deterministic semantic robustness into the training procedure, as existing deterministic semantic verifiers are exceedingly slow. To address these challenges, we propose Certified Semantic Training (CST), the first training framework for deterministic certified robustness against semantic image perturbations. Our framework leverages a novel GPU-optimized verifier that, unlike existing works, is fast enough for use in training. Our results show that networks trained via CST consistently achieve both better provable semantic robustness and clean accuracy, compared to networks trained via baselines based on existing works.

arxiv情報

著者 Rem Yang,Jacob Laurel,Sasa Misailovic,Gagandeep Singh
発行日 2022-07-22 16:40:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク