Providing Safety Assurances for Systems with Unknown Dynamics

要約

自律システムが複雑化し、社会に不可欠になるにつれ、これらのシステムを正確にモデル化し、安全に制御する必要性が著しく高まっている。過去10年間で、ディープラーニング技術を使用して、第一原理を使用してモデル化することが困難なシステムをモデル化し、制御することに大きな成功がありました。しかし、このようなシステムの安全性を保証することは、部分的には学習されたモデルの不確実性のために、依然として困難である。本研究では、ダイナミクスが第一原理から容易に導出されず、したがって深層学習技術を用いて学習することがより有利であるシステムの安全性を保証することを目指す。対象システムと安全制約が与えられた場合、我々はデータからシステムダイナミクスのアンサンブルモデルを学習する。学習されたダイナミクスモデルの不確実性の尺度としてアンサンブルの不確実性を活用し、実現されたモデルの不確実性が予め定義されたモデルの不確実性の許容集合に含まれるという条件の下で、システムが安全制約を満たすことが保証される最大ロバスト制御不変集合を計算する。本手法の有効性を、倒立振子を用いた模擬実験とTurtleBotを用いたハードウェア実験により実証する。実験の結果、我々の手法がモデルの不確実性に対してシステムの制御動作をロバスト化し、過度に制限することなく安全な動作を生成することが示された。コードと付属のビデオはプロジェクトのウェブサイトで見ることができる。

要約(オリジナル)

As autonomous systems become more complex and integral in our society, the need to accurately model and safely control these systems has increased significantly. In the past decade, there has been tremendous success in using deep learning techniques to model and control systems that are difficult to model using first principles. However, providing safety assurances for such systems remains difficult, partially due to the uncertainty in the learned model. In this work, we aim to provide safety assurances for systems whose dynamics are not readily derived from first principles and, hence, are more advantageous to be learned using deep learning techniques. Given the system of interest and safety constraints, we learn an ensemble model of the system dynamics from data. Leveraging ensemble uncertainty as a measure of uncertainty in the learned dynamics model, we compute a maximal robust control invariant set, starting from which the system is guaranteed to satisfy the safety constraints under the condition that realized model uncertainties are contained in the predefined set of admissible model uncertainty. We demonstrate the effectiveness of our method using a simulated case study with an inverted pendulum and a hardware experiment with a TurtleBot. The experiments show that our method robustifies the control actions of the system against model uncertainty and generates safe behaviors without being overly restrictive. The codes and accompanying videos can be found on the project website.

arxiv情報

著者 Hao Wang,Javier Borquez,Somil Bansal
発行日 2024-05-05 15:41:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク