Learning-Aware Safety for Interactive Autonomy

要約

自動運転車のようなロボットシステムを広く導入する際の顕著な課題の 1 つは、効率を犠牲にすることなく人間との安全な対話を確保することです。
既存の安全分析手法では、実行時に学習して適応するロボットの能力が無視されることが多く、過度に保守的な動作につながります。
この論文は、起こり得る将来のシナリオの下でシステムの進化する不確実性を明示的に考慮する安全制御ポリシーを合成するための新しい閉ループパラダイムを提案します。
この定式化では、物理的な力学と、時間の経過とともに内部の信念を更新するロボットの学習アルゴリズムについて共同で推論します。
敵対的深層強化学習 (RL) を利用して高次元にスケーリングし、最先端の予測モデルによって引き起こされる暗黙的な学習ダイナミクスであっても扱いやすい安全性分析を可能にします。
私たちは、ベイジアン信念伝播と、事前に訓練された大規模な神経軌道予測器によって誘発される暗黙的学習の両方を処理するフレームワークの能力を実証します。

要約(オリジナル)

One of the outstanding challenges for the widespread deployment of robotic systems like autonomous vehicles is ensuring safe interaction with humans without sacrificing efficiency. Existing safety analysis methods often neglect the robot’s ability to learn and adapt at runtime, leading to overly conservative behavior. This paper proposes a new closed-loop paradigm for synthesizing safe control policies that explicitly account for the system’s evolving uncertainty under possible future scenarios. The formulation reasons jointly about the physical dynamics and the robot’s learning algorithm, which updates its internal belief over time. We leverage adversarial deep reinforcement learning (RL) for scaling to high dimensions, enabling tractable safety analysis even for implicit learning dynamics induced by state-of-the-art prediction models. We demonstrate our framework’s ability to work with both Bayesian belief propagation and the implicit learning induced by a large pre-trained neural trajectory predictor.

arxiv情報

著者 Haimin Hu,Zixu Zhang,Kensuke Nakamura,Andrea Bajcsy,Jaime F. Fisac
発行日 2023-09-03 20:34:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY パーマリンク