要約
Hamilton-Jacobi(HJ)Reachabilityは、ロボットが危険な状態を同時に検出し、将来の障害を防ぐアクションを生成できるようにする厳格な数学的枠組みです。
理論的には、HJの到達可能性は、非線形システムと非コンベックス制約の安全なコントローラーを合成することができますが、実際には、低次元の状態空間表現と第一派のダイナミクスを介してモデル化された手工学の衝突回避制約に限定されています。
この作業では、私たちの目標は、安全なロボットコントローラーを一般化して、不可能ではないにしても、手作業で書き留めるのが難しいが、高次元の観測から直感的に特定できることを防ぐことです。たとえば、バッグの内容をこぼすことです。
生成世界モデルの潜在的な埋め込みスペースで安全分析を実行することにより、明示的な回復デモを行うことなく安全性普及アクションを自動的に計算するために、生の観測データ(たとえば、RGB画像)で直接動作するHJリーチ性の潜在スペースの一般化である潜在的な安全フィルターを提案します。
私たちの方法は、さまざまな品質(成功、ランダム探査、危険なデモンストレーションを含む)の多様なロボット観測アクションデータを活用して、世界モデルを学びます。
制約仕様は、学習された世界モデルの潜在空間の分類問題に変換されます。
シミュレーションおよびハードウェアの実験では、潜在的な安全フィルターの近似を計算して、フランカの研究3マニピュレーターがバッグの内容物をこぼしたり、倒れたオブジェクトをこぼさないように、複雑な安全上の危険からarbitrary意的なポリシー(模造学習ポリシーからテレオ操作まで)を保護します。
要約(オリジナル)
Hamilton-Jacobi (HJ) reachability is a rigorous mathematical framework that enables robots to simultaneously detect unsafe states and generate actions that prevent future failures. While in theory, HJ reachability can synthesize safe controllers for nonlinear systems and nonconvex constraints, in practice, it has been limited to hand-engineered collision-avoidance constraints modeled via low-dimensional state-space representations and first-principles dynamics. In this work, our goal is to generalize safe robot controllers to prevent failures that are hard–if not impossible–to write down by hand, but can be intuitively identified from high-dimensional observations: for example, spilling the contents of a bag. We propose Latent Safety Filters, a latent-space generalization of HJ reachability that tractably operates directly on raw observation data (e.g., RGB images) to automatically compute safety-preserving actions without explicit recovery demonstrations by performing safety analysis in the latent embedding space of a generative world model. Our method leverages diverse robot observation-action data of varying quality (including successes, random exploration, and unsafe demonstrations) to learn a world model. Constraint specification is then transformed into a classification problem in the latent space of the learned world model. In simulation and hardware experiments, we compute an approximation of Latent Safety Filters to safeguard arbitrary policies (from imitation- learned policies to direct teleoperation) from complex safety hazards, like preventing a Franka Research 3 manipulator from spilling the contents of a bag or toppling cluttered objects.
arxiv情報
著者 | Kensuke Nakamura,Lasse Peters,Andrea Bajcsy |
発行日 | 2025-04-30 23:43:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google