要約
驚くべき進歩にもかかわらず、ディープラーニングは敵対的な攻撃を受けやすいことがわかっています。
堅牢なネットワークを経験的にも証明的にもトレーニングするために、数多くのアプローチが提案されています。
ただし、それらのほとんどは 1 種類の攻撃のみを防御しますが、最近の研究では複数の攻撃に対する防御が前進しています。
この論文では、マルチターゲットの堅牢性を理解するために、この問題を、さまざまなプレーヤー (敵対者) がパラメータ更新の共通の方向性について合意に達するために交渉する交渉ゲームとして見ます。
我々は、交渉ゲームにおけるプレイヤーの支配と呼ばれる現象、つまり MAX や MSD などの既存の最大ベースのアプローチが収束しないことを特定しました。
理論的分析に基づいて、プレイヤーの優位性を回避するためにさまざまな敵の予算を調整する新しいフレームワークを設計します。
標準ベンチマークの実験では、提案されたフレームワークを既存のアプローチに採用すると、マルチターゲットの堅牢性が大幅に向上することが示されています。
要約(オリジナル)
Despite incredible advances, deep learning has been shown to be susceptible to adversarial attacks. Numerous approaches have been proposed to train robust networks both empirically and certifiably. However, most of them defend against only a single type of attack, while recent work takes steps forward in defending against multiple attacks. In this paper, to understand multi-target robustness, we view this problem as a bargaining game in which different players (adversaries) negotiate to reach an agreement on a joint direction of parameter updating. We identify a phenomenon named player domination in the bargaining game, namely that the existing max-based approaches, such as MAX and MSD, do not converge. Based on our theoretical analysis, we design a novel framework that adjusts the budgets of different adversaries to avoid any player dominance. Experiments on standard benchmarks show that employing the proposed framework to the existing approaches significantly advances multi-target robustness.
arxiv情報
著者 | Yimu Wang,Dinghuai Zhang,Yihan Wu,Heng Huang,Hongyang Zhang |
発行日 | 2023-06-27 14:02:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google