Deep Transformer Network for Monocular Pose Estimation of Ship-Based UAV

要約

この論文では、単眼画像を使用して船舶に対する無人航空機 (UAV) の相対的な 6D 姿勢を推定するためのディープ トランスフォーマー ネットワークを紹介します。
船舶画像の合成データセットが作成され、複数の船舶部品の 2D キーポイントで注釈が付けられます。
Transformer Neural Network モデルは、これらのキーポイントを検出し、各パーツの 6D 姿勢を推定するようにトレーニングされています。
推定値はベイジアン融合を使用して統合されます。
このモデルは合成データとその場での飛行実験でテストされ、さまざまな照明条件下での堅牢性と精度が実証されています。
位置推定誤差は、合成データと飛行実験の場合、それぞれ船までの距離の約 0.8\% と 1.0\% です。
この方法には、船舶ベースの自律型 UAV の着陸とナビゲーションに応用できる可能性があります。

要約(オリジナル)

This paper introduces a deep transformer network for estimating the relative 6D pose of a Unmanned Aerial Vehicle (UAV) with respect to a ship using monocular images. A synthetic dataset of ship images is created and annotated with 2D keypoints of multiple ship parts. A Transformer Neural Network model is trained to detect these keypoints and estimate the 6D pose of each part. The estimates are integrated using Bayesian fusion. The model is tested on synthetic data and in-situ flight experiments, demonstrating robustness and accuracy in various lighting conditions. The position estimation error is approximately 0.8\% and 1.0\% of the distance to the ship for the synthetic data and the flight experiments, respectively. The method has potential applications for ship-based autonomous UAV landing and navigation.

arxiv情報

著者 Maneesha Wickramasuriya,Taeyoung Lee,Murray Snyder
発行日 2024-06-13 16:01:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO, eess.IV パーマリンク