要約
安全性は制御システムの基本的な要件です。
制御バリア機能 (CBF) は、安全フィルターを構築したり制御入力を合成したりすることで制御システムの安全性を確保するために提案されています。
ただし、安全性の保証と安全なコントローラーのパフォーマンスは、有効な CBF の構築に依存します。
普遍的近似可能性に着想を得た CBF は、ニューラル CBF (NCBF) として知られるニューラル ネットワークによって表されます。
この論文では、確率的環境において正式に検証された連続時間ニューラル コントロール バリア関数を 1 つのステップで合成するためのアルゴリズムを紹介します。
提案されたトレーニング プロセスは、確率的ニューラル CBF (SNCBF) のサンプルベースの学習フレームワークを構築することにより、有限数のデータ ポイントのみで状態空間全体にわたる有効性を保証します。
私たちの方法論では、ニューラル ネットワーク、そのヤコビアン項、およびヘッセ項にリプシッツ境界を適用することで、事後検証の必要性を排除します。
倒立振子システムと自動運転における障害物回避のケーススタディを通じて、ベースライン手法と比較してより広い安全領域を示すことで、アプローチの有効性を実証します。
要約(オリジナル)
Safety is a fundamental requirement of control systems. Control Barrier Functions (CBFs) are proposed to ensure the safety of the control system by constructing safety filters or synthesizing control inputs. However, the safety guarantee and performance of safe controllers rely on the construction of valid CBFs. Inspired by universal approximatability, CBFs are represented by neural networks, known as neural CBFs (NCBFs). This paper presents an algorithm for synthesizing formally verified continuous-time neural Control Barrier Functions in stochastic environments in a single step. The proposed training process ensures efficacy across the entire state space with only a finite number of data points by constructing a sample-based learning framework for Stochastic Neural CBFs (SNCBFs). Our methodology eliminates the need for post hoc verification by enforcing Lipschitz bounds on the neural network, its Jacobian, and Hessian terms. We demonstrate the effectiveness of our approach through case studies on the inverted pendulum system and obstacle avoidance in autonomous driving, showcasing larger safe regions compared to baseline methods.
arxiv情報
著者 | Manan Tayal,Hongchao Zhang,Pushpak Jagtap,Andrew Clark,Shishir Kolathaya |
発行日 | 2024-03-28 11:46:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google