Robust and Provably Monotonic Networks

要約

ニューラル ネットワークによって表される入力空間と出力空間の間のマップのリプシッツ定数は、モデルのロバスト性を評価するための自然なメトリックです。
他のアーキテクチャにも一般化できる、高密度の深層学習モデルのリプシッツ定数を制約する新しい方法を提示します。
この方法は、すべてのレイヤーのリプシッツ定数がアナリストによって指定された上限を下回ることを保証する、トレーニング中の単純な重みの正規化スキームに依存しています。
次に、単純な単調残差接続を使用して、入力の任意のサブセットでモデルを単調にすることができます。これは、ドメイン知識がそのような依存関係を決定するシナリオで役立ちます。
アルゴリズムの公平性要件や、ここに示すように、CERN 大型ハドロン衝突型加速器で生成される亜原子粒子の崩壊の分類に例が見られます。
私たちの正規化は最小限の制約であり、モデルのリプシッツ定数を制御するか単調性を確保することを目的とする他​​の手法と比較して、基礎となるアーキテクチャがより高い表現力を維持することを可能にします。
このアルゴリズムを使用して、重いフレーバー クォーク崩壊の強力で堅牢で解釈可能な弁別器をトレーニングする方法を示します。
Run 3 として知られる現在の LHC データ取得期間。さらに、当社のアルゴリズムは、医療、金融、およびその他のアプリケーションのベンチマークでも最先端のパフォーマンスを達成しています。

要約(オリジナル)

The Lipschitz constant of the map between the input and output space represented by a neural network is a natural metric for assessing the robustness of the model. We present a new method to constrain the Lipschitz constant of dense deep learning models that can also be generalized to other architectures. The method relies on a simple weight normalization scheme during training that ensures the Lipschitz constant of every layer is below an upper limit specified by the analyst. A simple monotonic residual connection can then be used to make the model monotonic in any subset of its inputs, which is useful in scenarios where domain knowledge dictates such dependence. Examples can be found in algorithmic fairness requirements or, as presented here, in the classification of the decays of subatomic particles produced at the CERN Large Hadron Collider. Our normalization is minimally constraining and allows the underlying architecture to maintain higher expressiveness compared to other techniques which aim to either control the Lipschitz constant of the model or ensure its monotonicity. We show how the algorithm was used to train a powerful, robust, and interpretable discriminator for heavy-flavor-quark decays, which has been adopted for use as the primary data-selection algorithm in the LHCb real-time data-processing system in the current LHC data-taking period known as Run 3. In addition, our algorithm has also achieved state-of-the-art performance on benchmarks in medicine, finance, and other applications.

arxiv情報

著者 Ouail Kitouni,Niklas Nolte,Mike Williams
発行日 2023-03-15 16:16:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-ex パーマリンク