On the Forward Invariance of Neural ODEs

要約

不変集合の伝播を使用して、ニューラル常微分方程式 (ODE) が出力仕様を満たすことを保証する新しい方法を提案します。
私たちのアプローチでは、制御バリア関数のクラスを使用して、出力仕様をパラメーターと学習システムの入力の制約に変換します。
この設定により、トレーニング中と推論中の両方で制約されたパラメーター/入力を変更するだけで、出力仕様の保証を達成できます。
さらに、データ制御ニューラル ODE を介した不変集合の伝播が汎化パフォーマンスを維持するだけでなく、システムのパラメーター/入力の因果的操作を可能にすることでさらなる堅牢性も生み出すことを実証します。
私たちは、物理力学や凸面ポートレートのモデリング、自動運転車の安全な衝突回避など、一連の表現学習タスクでメソッドをテストします。

要約(オリジナル)

We propose a new method to ensure neural ordinary differential equations (ODEs) satisfy output specifications by using invariance set propagation. Our approach uses a class of control barrier functions to transform output specifications into constraints on the parameters and inputs of the learning system. This setup allows us to achieve output specification guarantees simply by changing the constrained parameters/inputs both during training and inference. Moreover, we demonstrate that our invariance set propagation through data-controlled neural ODEs not only maintains generalization performance but also creates an additional degree of robustness by enabling causal manipulation of the system’s parameters/inputs. We test our method on a series of representation learning tasks, including modeling physical dynamics and convexity portraits, as well as safe collision avoidance for autonomous vehicles.

arxiv情報

著者 Wei Xiao,Tsun-Hsuan Wang,Ramin Hasani,Mathias Lechner,Yutong Ban,Chuang Gan,Daniela Rus
発行日 2023-05-31 16:03:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY パーマリンク