Gamma-convergence of a nonlocal perimeter arising in adversarial machine learning

要約

この論文では、ミンコフスキー型の非局所境界線が局所異方性境界線にガンマ収束することを証明します。
非局所モデルは、バイナリ分類における敵対的トレーニングの正則化効果を記述します。
エネルギーは基本的に、関連するクラスの尤度をモデル化する 2 つの分布間の相互作用に依存します。
私たちは、分布が $BV$ 密度に限界があると仮定するだけで、分布に対する典型的な厳密な規則性の仮定を克服します。
コンパクトさから生じる自然なトポロジーでは、2 つの密度の異方性関数によって決定される重みを持つ重み付けされた周囲へのガンマ収束を証明します。
局所的であるにもかかわらず、この鋭い境界面の限界は、敵対的な摂動に対する分類の安定性を反映しています。
さらに、結果を適用して、関連する全体の変動のガンマ収束を推定し、敵対的トレーニングの漸近を研究し、非局所境界のグラフ離散化のガンマ収束を証明します。

要約(オリジナル)

In this paper we prove Gamma-convergence of a nonlocal perimeter of Minkowski type to a local anisotropic perimeter. The nonlocal model describes the regularizing effect of adversarial training in binary classifications. The energy essentially depends on the interaction between two distributions modelling likelihoods for the associated classes. We overcome typical strict regularity assumptions for the distributions by only assuming that they have bounded $BV$ densities. In the natural topology coming from compactness, we prove Gamma-convergence to a weighted perimeter with weight determined by an anisotropic function of the two densities. Despite being local, this sharp interface limit reflects classification stability with respect to adversarial perturbations. We further apply our results to deduce Gamma-convergence of the associated total variations, to study the asymptotics of adversarial training, and to prove Gamma-convergence of graph discretizations for the nonlocal perimeter.

arxiv情報

著者 Leon Bungert,Kerrek Stinson
発行日 2024-01-29 16:07:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 28A75, 49J45, 60D05, 68R10, cs.LG, math.AP, math.OC パーマリンク