General Lipschitz: Certified Robustness Against Resolvable Semantic Transformations via Transformation-Dependent Randomized Smoothing

要約

ランダム化平滑化は、限界のある大きさの追加的な敵対的摂動に対して堅牢であることが証明されている画像分類器を構築するための最先端のアプローチです。
ただし、セマンティック変換 (画像のぼかし、変換、ガンマ補正など) とその構成に対して適切な証明書を構築することはより複雑です。
この研究では、構成可能で解決可能な意味論的摂動に対してニューラル ネットワークを証明する新しいフレームワークである \emph{General Lipschitz (GL)} を提案します。
このフレームワーク内で、平滑化された分類器の変換に依存するリプシッツ連続性を分析します。
変換パラメータを取得し、対応する堅牢性証明書を取得します。
私たちの方法は、ImageNet データセットに対する最先端のアプローチと同等のパフォーマンスを発揮します。

要約(オリジナル)

Randomized smoothing is the state-of-the-art approach to construct image classifiers that are provably robust against additive adversarial perturbations of bounded magnitude. However, it is more complicated to construct reasonable certificates against semantic transformation (e.g., image blurring, translation, gamma correction) and their compositions. In this work, we propose \emph{General Lipschitz (GL),} a new framework to certify neural networks against composable resolvable semantic perturbations. Within the framework, we analyze transformation-dependent Lipschitz-continuity of smoothed classifiers w.r.t. transformation parameters and derive corresponding robustness certificates. Our method performs comparably to state-of-the-art approaches on the ImageNet dataset.

arxiv情報

著者 Dmitrii Korzh,Mikhail Pautov,Olga Tsymboi,Ivan Oseledets
発行日 2024-08-09 16:17:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク