POLICE: Provably Optimal Linear Constraint Enforcement for Deep Neural Networks

要約

ディープ ニューラル ネットワーク (DNN) は、任意の微分可能な演算子を構成する際のモジュール性のおかげで、多くの設定で代替関数近似器よりも優れています。
形成されたパラメーター化された汎関数は、単純な勾配降下法から目の前のタスクを解決するように調整されます。
このモジュール性は、DNN の制約を厳密に適用するという代償を伴います。
タスクのアプリオリな知識から、または望ましい物理的特性から、オープンな挑戦。
この論文では、与えられた DNN の forward-pass への最小限の変更しか必要とせず、計算に優しく、DNN のパラメーターの最適化を制約なしのままにする、つまり標準の勾配ベースの方法を使用できる、DNN の最初の証明可能なアフィン制約の強制方法を提案します。
雇われる。
私たちの方法はサンプリングを必要とせず、トレーニングおよびテスト中の任意の時点で、DNN が特定の入力空間の領域でアフィン制約を満たすことを実証的に保証します。
このメソッド POLICE は、Provably Optimal LInear Constraint Enforcement の略です。

要約(オリジナル)

Deep Neural Networks (DNNs) outshine alternative function approximators in many settings thanks to their modularity in composing any desired differentiable operator. The formed parametrized functional is then tuned to solve a task at hand from simple gradient descent. This modularity comes at the cost of making strict enforcement of constraints on DNNs, e.g. from a priori knowledge of the task, or from desired physical properties, an open challenge. In this paper we propose the first provable affine constraint enforcement method for DNNs that requires minimal changes into a given DNN’s forward-pass, that is computationally friendly, and that leaves the optimization of the DNN’s parameter to be unconstrained i.e. standard gradient-based method can be employed. Our method does not require any sampling and provably ensures that the DNN fulfills the affine constraint on a given input space’s region at any point during training, and testing. We coin this method POLICE, standing for Provably Optimal LInear Constraint Enforcement.

arxiv情報

著者 Randall Balestriero,Yann LeCun
発行日 2022-11-02 17:48:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク