要約
二値分類のための敵対的トレーニングを、決定境界の幾何学的展開方程式に接続します。
敵対的トレーニングを正則化問題として再構築する観点に基づいて、非局所境界関数の最小化運動スキームを構成する修正トレーニング スキームを導入します。
敵対的バジェットが消滅し、境界が局所化するにつれて、スキームが単調で一貫していることを証明し、その結果、スキームが加重平均曲率流に近似することを厳密に示します。
これは、敵対的トレーニングの有効性が決定境界の長さを局所的に最小化することに起因する可能性があることを強調しています。
私たちの分析では、超常型の非局所合計変動の微分とその規則性特性を操作するためのさまざまなツールを導入します。
要約(オリジナル)
We connect adversarial training for binary classification to a geometric evolution equation for the decision boundary. Relying on a perspective that recasts adversarial training as a regularization problem, we introduce a modified training scheme that constitutes a minimizing movements scheme for a nonlocal perimeter functional. We prove that the scheme is monotone and consistent as the adversarial budget vanishes and the perimeter localizes, and as a consequence we rigorously show that the scheme approximates a weighted mean curvature flow. This highlights that the efficacy of adversarial training may be due to locally minimizing the length of the decision boundary. In our analysis, we introduce a variety of tools for working with the subdifferential of a supremal-type nonlocal total variation and its regularity properties.
arxiv情報
著者 | Leon Bungert,Tim Laux,Kerrek Stinson |
発行日 | 2024-04-22 17:58:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google