AI-Based Multi-Object Relative State Estimation with Self-Calibration Capabilities

要約

生の感覚データからタスク固有のセマンティック情報を抽出する機能は、モバイル ロボット工学の多くのアプリケーションにとって重要な要件です。
たとえば、無人航空機 (UAV) を使用した重要なインフラストラクチャの自律検査では、検査対象の構造物に対する正確なナビゲーションが必要です。
最近、人工知能 (AI) ベースの方法は、画像からオブジェクトの 6 自由度 (6-DoF) ポーズなどのセマンティック情報を抽出するのに優れていることが示されています。
この論文では、モバイルの6-DoFマルチオブジェクト相対状態推定のために、カメラ画像内のオブジェクトの最先端のAIベースのポーズ推定器と慣性測定ユニット(IMU)からのデータを組み合わせた方法を提案します。
ロボット。
AI ベースのポーズ エスティメータは、カメラ画像内の複数の対象オブジェクトとそれらの相対的なポーズを検出します。
これらの測定値は、最先端のセンサー フュージョン フレームワークで IMU データと融合されます。
さまざまな軌道と任意に配置されたオブジェクトの数に対する実世界の実験で、提案された方法の実現可能性を示します。
私たちのアプローチの自己調整機能により、結果を確実に再現できることを示します。

要約(オリジナル)

The capability to extract task specific, semantic information from raw sensory data is a crucial requirement for many applications of mobile robotics. Autonomous inspection of critical infrastructure with Unmanned Aerial Vehicles (UAVs), for example, requires precise navigation relative to the structure that is to be inspected. Recently, Artificial Intelligence (AI)-based methods have been shown to excel at extracting semantic information such as 6 degree-of-freedom (6-DoF) poses of objects from images. In this paper, we propose a method combining a state-of-the-art AI-based pose estimator for objects in camera images with data from an inertial measurement unit (IMU) for 6-DoF multi-object relative state estimation of a mobile robot. The AI-based pose estimator detects multiple objects of interest in camera images along with their relative poses. These measurements are fused with IMU data in a state-of-the-art sensor fusion framework. We illustrate the feasibility of our proposed method with real world experiments for different trajectories and number of arbitrarily placed objects. We show that the results can be reliably reproduced due to the self-calibrating capabilities of our approach.

arxiv情報

著者 Thomas Jantos,Christian Brommer,Eren Allak,Stephan Weiss,Jan Steinbrener
発行日 2023-03-01 09:52:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク