要約
学習、シミュレーション、解析のいずれにせよ、ロボットのダイナミクスの近似は、新しい環境に遭遇すると不正確になる可能性があります。しかし、これらの推定値だけでは、実際のダイナミクスが変化する可能性のある新規環境におけるモデルの不確実性を適切に推定するには不十分です。このような変化は、認識論的不確実性、すなわち情報/データの不足による不確実性を引き起こす可能性がある。エピステミックな不確実性とアレータリックなダイナミクスの不確実性の両方を、理論的根拠のある方法で説明することは、依然として未解決の問題である。われわれは、局所不確実性共形校正(Local Uncertainty Conformal Calibration: LUCCa)を導入する。これは、共形予測に基づくアプローチであり、ダイナミクスモデルによって提供されるアレエータ的不確実性推定値を校正し、システムの状態に関する確率的に妥当な予測領域を生成する。我々は、真のダイナミクスの形やそれがどのように変化するかについて強い仮定をすることなく、エピステミックな不確実性とアレアトールな不確実性の両方を非漸近的に考慮する。キャリブレーションは状態-アクション空間において局所的に実行され、プランニングに有用な不確実性推定を導く。我々は、ダイナミクスが大きく変化する二重積分器の確率論的に安全な計画を構築することにより、本方法を検証する。
要約(オリジナル)
Whether learned, simulated, or analytical, approximations of a robot’s dynamics can be inaccurate when encountering novel environments. Many approaches have been proposed to quantify the aleatoric uncertainty of such methods, i.e. uncertainty resulting from stochasticity, however these estimates alone are not enough to properly estimate the uncertainty of a model in a novel environment, where the actual dynamics can change. Such changes can induce epistemic uncertainty, i.e. uncertainty due to a lack of information/data. Accounting for both epistemic and aleatoric dynamics uncertainty in a theoretically-grounded way remains an open problem. We introduce Local Uncertainty Conformal Calibration (LUCCa), a conformal prediction-based approach that calibrates the aleatoric uncertainty estimates provided by dynamics models to generate probabilistically-valid prediction regions of the system’s state. We account for both epistemic and aleatoric uncertainty non-asymptotically, without strong assumptions about the form of the true dynamics or how it changes. The calibration is performed locally in the state-action space, leading to uncertainty estimates that are useful for planning. We validate our method by constructing probabilistically-safe plans for a double-integrator under significant changes in dynamics.
arxiv情報
著者 | Luís Marques,Dmitry Berenson |
発行日 | 2024-10-04 00:35:24+00:00 |
arxivサイト | arxiv_id(pdf) |