UAV Position Estimation using a LiDAR-based 3D Object Detection Method

要約

このホワイトペーパーでは、3Dオブジェクト検出にディープラーニングアプローチを適用して、GPS除去された環境にLIDARセンサーを装備した無人の地上車両(UGV)から無人航空機(UAV)の相対位置を計算することを調査します。
これは、3D検出アルゴリズム(Pointpillars)を介してLidarセンサーのデータを評価することで達成されました。
PointPillarsアルゴリズムには、列Voxel Point-Cloud表現と2D畳み込みニューラルネットワーク(CNN)が組み込まれており、この場合はUAVを識別するオブジェクトを表す特徴的なポイントクラウド機能を生成します。
現在のローカリゼーション方法は、Point-Cloudセグメンテーション、ユークリッドクラスタリング、および事前定義されたヒューリスティックを利用して、UAVの相対的な位置を取得します。
次に、2つの方法の結果を参照真理ソリューションと比較しました。

要約(オリジナル)

This paper explores the use of applying a deep learning approach for 3D object detection to compute the relative position of an Unmanned Aerial Vehicle (UAV) from an Unmanned Ground Vehicle (UGV) equipped with a LiDAR sensor in a GPS-denied environment. This was achieved by evaluating the LiDAR sensor’s data through a 3D detection algorithm (PointPillars). The PointPillars algorithm incorporates a column voxel point-cloud representation and a 2D Convolutional Neural Network (CNN) to generate distinctive point-cloud features representing the object to be identified, in this case, the UAV. The current localization method utilizes point-cloud segmentation, Euclidean clustering, and predefined heuristics to obtain the relative position of the UAV. Results from the two methods were then compared to a reference truth solution.

arxiv情報

著者 Uthman Olawoye,Jason N. Gross
発行日 2025-04-09 16:43:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク