要約
知覚における急速な進歩により、大規模な訓練を受けたモデルを箱から出して、世界の高次元的、騒々しい、部分的な観察を豊かな占有表現に変換することができました。
ただし、これらのモデルの信頼性、その結果、トレーニング中に見えない環境に展開された場合、ロボットへの安全な統合は不明のままです。
安全保証を提供するために、コンフォーマル予測に基づく新しいキャリブレーション手法を介して、オブジェクトの検出とシーンの完了のための事前に訓練された知覚システムの不確実性を厳密に定量化します。
重要なことに、この手順は、知覚出力がプランナーと併用して使用される場合、状態の分布シフトに対する堅牢性を保証します。
その結果、キャリブレーションされた知覚システムは、あらゆるセーフプランナーと組み合わせて使用して、目に見えない環境での安全性に関するエンドツーエンドの統計的保証を提供できます。
結果として得られるアプローチを評価し、信頼性(PWC)、シミュレーション、および四足込んでいたロボットが以前に見えなかった屋内で静的な環境をナビゲートするハードウェアで評価します。
これらの実験は、PWCが提供する障害回避のための安全性保証を検証します。
シミュレーションでは、私たちの方法により、障害物の誤解は、非調整された知覚モデルと比較して70ドル\%$減少します。
誤解はベースライン方法の衝突につながりますが、私たちのアプローチは一貫して100ドル\%$の安全を達成しています。
さらに、安全性を犠牲にすることなく、方法の保守主義を減らすことを実証し、100ドルの安全性を維持しながら、困難な環境で46ドルの成功率の上昇を達成します。
ハードウェア実験では、この方法はベースラインよりも経験的安全性を40ドル\%$に改善し、障害物の誤解を$ 93.3 \%$に減らします。
ナビゲーション速度が上昇すると、安全ギャップは46.7%$ 46.7 \%$に拡大し、より厳しい条件下でアプローチの堅牢性を強調します。
要約(オリジナル)
Rapid advances in perception have enabled large pre-trained models to be used out of the box for transforming high-dimensional, noisy, and partial observations of the world into rich occupancy representations. However, the reliability of these models and consequently their safe integration onto robots remains unknown when deployed in environments unseen during training. To provide safety guarantees, we rigorously quantify the uncertainty of pre-trained perception systems for object detection and scene completion via a novel calibration technique based on conformal prediction. Crucially, this procedure guarantees robustness to distribution shifts in states when perception outputs are used in conjunction with a planner. As a result, the calibrated perception system can be used in combination with any safe planner to provide an end-to-end statistical assurance on safety in unseen environments. We evaluate the resulting approach, Perceive with Confidence (PwC), in simulation and on hardware where a quadruped robot navigates through previously unseen indoor, static environments. These experiments validate the safety assurances for obstacle avoidance provided by PwC. In simulation, our method reduces obstacle misdetection by $70\%$ compared to uncalibrated perception models. While misdetections lead to collisions for baseline methods, our approach consistently achieves $100\%$ safety. We further demonstrate reducing the conservatism of our method without sacrificing safety, achieving a $46\%$ increase in success rates in challenging environments while maintaining $100\%$ safety. In hardware experiments, our method improves empirical safety by $40\%$ over baselines and reduces obstacle misdetection by $93.3\%$. The safety gap widens to $46.7\%$ when navigation speed increases, highlighting our approach’s robustness under more demanding conditions.
arxiv情報
著者 | Zhiting Mei,Anushri Dixit,Meghan Booker,Emily Zhou,Mariko Storey-Matsutani,Allen Z. Ren,Ola Shorinwa,Anirudha Majumdar |
発行日 | 2025-04-17 16:03:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google