要約
エージェントが不確実なブラックボックスモデルを使用して他のエージェントの軌跡を予測する分散型マルチエージェントロボット設定における安全な制御の課題に対処します。
最近提案されたコンフォーマル決定理論を使用して、観測された予測エラーに基づいて、制御バリア関数ベースの安全制約の制限性を適応させます。
これらの制約を使用して、予測エラーにもかかわらず、安全性とタスクの達成の目的とタスクの達成のバランスをとるコントローラーを合成します。
予測された軌跡に基づいた安全性の制約と、グラウンドトゥルースのものに基づく制約の間の違いの単調関数の値の平均との間の平均上の上限を提供します。
スタンフォードドローンデータセットのマルチエージェントシーンでロボットをナビゲートする際のコントローラーのパフォーマンスを示す実験結果を通じて理論を検証します。
要約(オリジナル)
We address the challenge of safe control in decentralized multi-agent robotic settings, where agents use uncertain black-box models to predict other agents’ trajectories. We use the recently proposed conformal decision theory to adapt the restrictiveness of control barrier functions-based safety constraints based on observed prediction errors. We use these constraints to synthesize controllers that balance between the objectives of safety and task accomplishment, despite the prediction errors. We provide an upper bound on the average over time of the value of a monotonic function of the difference between the safety constraint based on the predicted trajectories and the constraint based on the ground truth ones. We validate our theory through experimental results showing the performance of our controllers when navigating a robot in the multi-agent scenes in the Stanford Drone Dataset.
arxiv情報
著者 | Sacha Huriot,Hussein Sibai |
発行日 | 2025-03-07 16:42:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google