要約
機械学習モデルの敵対的な堅牢性を改善するための手段としてのランダム化は、最近大きな注目を集めています。
残念ながら、これまでの理論分析の多くは、バイナリ分類に焦点を当てており、より複雑なマルチクラス設定に対する限られた洞察のみを提供しています。
この論文では、グラフ理論の分野からインスピレーションを引き出すことにより、このギャップを埋めるための一歩を踏み出します。
私たちの分析は、個別のデータ分布に焦点を当てており、設定された梱包問題の確立されたフレームワーク内で敵対的なリスク最小化の問題を唱えることができます。
そうすることで、ランダム化が堅牢性を改善するために必要なデータ分布のサポートに関する3つの構造条件を特定することができます。
さらに、いくつかのデータ分布を構築することができます(バイナリ分類とは対照的に)決定論的からランダム化ソリューションに切り替えると、最適な敵対的リスクが大幅に減少します。
これらの発見は、ランダム化がマルチクラス分類における敵対的攻撃に対する堅牢性を高める上で果たすことができる重要な役割を強調しています。
要約(オリジナル)
Randomization as a mean to improve the adversarial robustness of machine learning models has recently attracted significant attention. Unfortunately, much of the theoretical analysis so far has focused on binary classification, providing only limited insights into the more complex multiclass setting. In this paper, we take a step toward closing this gap by drawing inspiration from the field of graph theory. Our analysis focuses on discrete data distributions, allowing us to cast the adversarial risk minimization problems within the well-established framework of set packing problems. By doing so, we are able to identify three structural conditions on the support of the data distribution that are necessary for randomization to improve robustness. Furthermore, we are able to construct several data distributions where (contrarily to binary classification) switching from a deterministic to a randomized solution significantly reduces the optimal adversarial risk. These findings highlight the crucial role randomization can play in enhancing robustness to adversarial attacks in multiclass classification.
arxiv情報
著者 | Lucas Gnecco-Heredia,Matteo Sammut,Muni Sreenivas Pydi,Rafael Pinot,Benjamin Negrevergne,Yann Chevaleyre |
発行日 | 2025-06-12 16:34:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google