要約
この論文では、セーフティ クリティカルなロボット アプリケーションにおける認定された認識のための 2 つの新しいアルゴリズムを提案します。
1 つ目は、認定されたビジュアル オドメトリ アルゴリズムです。これは、センサー ノイズが制限された RGBD カメラを使用して、証明可能な誤差範囲でビジュアル オドメトリ推定を構築します。
2 つ目は、同じ RGBD 画像を使用して障害物環境の符号付き距離フィールドを構築し、最も近い障害物までの距離を常に安全に過小評価する認定マッピング アルゴリズムです。
これは、VO ドリフトによるエラーを回避するために必要です。
アルゴリズムはハードウェア実験で実証され、両方を 30FPS でオンラインで実行することを実証します。
これらの方法は、オドメトリおよびマッピングのための最先端の技術とも比較されます。
要約(オリジナル)
This paper proposes two new algorithms for certified perception in safety-critical robotic applications. The first is a Certified Visual Odometry algorithm, which uses a RGBD camera with bounded sensor noise to construct a visual odometry estimate with provable error bounds. The second is a Certified Mapping algorithm which, using the same RGBD images, constructs a Signed Distance Field of the obstacle environment, always safely underestimating the distance to the nearest obstacle. This is required to avoid errors due to VO drift. The algorithms are demonstrated in hardware experiments, where we demonstrate both running online at 30FPS. The methods are also compared to state-of-the-art techniques for odometry and mapping.
arxiv情報
著者 | Devansh R Agrawal,Rajiv Govindjee,Jiangbo Yu,Anurekha Ravikumar,Dimitra Panagou |
発行日 | 2024-02-07 20:59:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google