要約
シャープネス認識最小化 (SAM) および関連する敵対的深層学習手法は、一般化を大幅に改善できますが、その根底にあるメカニズムはまだ完全には理解されていません。
ここで、期待される負の損失が、いわゆるフェンチェル双共役を使用して取得された最適な凸下限に置き換えられる、ベイズ目的の緩和として SAM を確立します。
この接続により、SAM の新しい Adam のような拡張が自動的に合理的な不確実性の推定値を取得できるようになり、その一方で精度が向上することもあります。
敵対的手法とベイジアン手法を接続することで、私たちの研究はロバスト性への新しい道を開きます。
要約(オリジナル)
Sharpness-aware minimization (SAM) and related adversarial deep-learning methods can drastically improve generalization, but their underlying mechanisms are not yet fully understood. Here, we establish SAM as a relaxation of the Bayes objective where the expected negative-loss is replaced by the optimal convex lower bound, obtained by using the so-called Fenchel biconjugate. The connection enables a new Adam-like extension of SAM to automatically obtain reasonable uncertainty estimates, while sometimes also improving its accuracy. By connecting adversarial and Bayesian methods, our work opens a new path to robustness.
arxiv情報
著者 | Thomas Möllenhoff,Mohammad Emtiyaz Khan |
発行日 | 2023-03-09 13:24:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google